Leer wat eenvoudige lineêre regressie is en hoe dit werk

'N Basiese Statistiese Benadering om Kwantitatiewe Data te analiseer

Courtesy Colin Broug, Fotograaf. © 10 Junie 2010 Stock.xchng

Lineêre regressiemodelle word gebruik om die verwantskap tussen twee veranderlikes of faktore te voorspel of te voorspel. Die faktor wat voorspel word (die faktor waarvoor die vergelyking oplos ) word die. Genoem afhanklike veranderlike. Die faktore wat gebruik word om die waarde van die afhanklike veranderlike te voorspel, word die onafhanklike veranderlikes genoem.

Goeie data vertel nie altyd die volledige storie nie. Regressie-analise word algemeen in navorsing gebruik omdat dit bepaal dat daar 'n verband tussen veranderlikes bestaan.

Maar korrelasie is nie dieselfde as oorsaak nie . Selfs 'n lyn in 'n eenvoudige lineêre regressie wat goed by die data punte pas, mag nie iets definitief oor 'n oorsaak-en-effek verhouding sê nie.

In eenvoudige lineêre regressie bestaan ​​elke waarneming uit twee waardes. Een waarde is vir die afhanklike veranderlike en een waarde is vir die onafhanklike veranderlike.

Eenvoudige Lineêre Regressiemodel

Die eenvoudige lineêre regressiemodel word soos volg voorgestel: y = ( β 0 + β 1 + Ε

Deur wiskundige konvensie word die twee faktore wat by 'n eenvoudige lineêre regressie-analise betrokke is, aangewys as x en y .

Die vergelyking wat beskryf hoe y verband hou met x staan ​​bekend as die regressiemodel . Die lineêre regressiemodel bevat ook 'n foutterm wat deur Ε of die Griekse letter-epsilon voorgestel word. Die foutterm word gebruik om die veranderlikheid in y te verantwoord wat nie deur die lineêre verwantskap tussen x en y verklaar kan word nie .

Daar is ook parameters wat die bevolking wat bestudeer word, verteenwoordig. Hierdie parameters van die model wat voorgestel word deur ( β 0+ β 1 x ).

Eenvoudige Lineêre Regressiemodel

Die eenvoudige lineêre regressievergelyking word soos volg voorgestel: Ε ( y ) = ( β 0 + β 1 x ).

Die eenvoudige lineêre regressievergelyking word as 'n reguitlyn getoon.

( β 0 is die y- afsnit van die regressielyn.

β 1 is die helling.

Ε ( y ) is die gemiddelde of verwagte waarde van y vir 'n gegewe waarde van x .

'N Regressielyn kan 'n positiewe lineêre verhouding, 'n negatiewe lineêre verhouding of geen verhouding toon. As die graflyn in 'n eenvoudige lineêre regressie plat is (nie skuins), is daar geen verband tussen die twee veranderlikes nie. As die regressielyn met die onderste punt van die lyn op die y- afsnit (as) van die grafiek ophang en die boonste punt van die lyn na bo na die grafiekveld strek, is daar 'n positiewe lineêre verwantskap van die x- afsnit (as) af. . As die regressielyn afwaarts gly met die boonste punt van die lyn by die y- afsnit (as) van die grafiek, en die onderste punt van die lyn wat afwaarts na die grafiekveld strek, na die x- afsnit (as), bestaan ​​daar 'n negatiewe lineêre verband.

Geskatte Lineêre Regressievergelyking

As die parameters van die bevolking bekend was, kan die eenvoudige lineêre regressievergelyking (hieronder getoon) gebruik word om die gemiddelde waarde van y vir 'n bekende waarde van x te bereken .

Ε ( y ) = ( β 0 + β 1 x ).

In die praktyk is die parameterwaardes egter nie bekend nie, dus hulle moet beraam word deur data uit 'n steekproef van die bevolking te gebruik. Die populasie parameters word geskat deur gebruik te maak van steekproef statistieke . Die steekproefstatistieke word deur b 0 + b 1 voorgestel. Wanneer die steekproefstatistieke vir die populasieparameters vervang word, word die beraamde regressievergelyking gevorm.

Die geskatte regressievergelyking word hieronder getoon.

( ŷ ) = ( β 0 + β 1 x

( ŷ ) word uitgespreek.

Die grafiek van die geskatte eenvoudige regressievergelyking word die geskatte regressielyn genoem.

Die b 0 is die y-afsnit.

Die b 1 is die helling.

Die ŷ ) is die beraamde waarde van y vir 'n gegewe waarde van x .

Belangrike Nota: Regressie-analise word nie gebruik om oorsaak-en-effekverhoudings tussen veranderlikes te interpreteer nie. Regressie-analise kan egter aandui hoe veranderlikes verband hou of in watter mate veranderlikes met mekaar geassosieer word.

Daardeur het regressie analise geneig om verhoudende verhoudings te maak wat regverdig dat 'n kundige navorser nader kyk .

Ook bekend as: bivariate regressie, regressie analise

Voorbeelde: Die minste vierkante metode is 'n statistiese prosedure vir die gebruik van steekproefdata om die waarde van die geskatte regressievergelyking te vind. Die Kleinste Vierkante Metode is voorgestel deur Carl Friedrich Gauss, wat in die jaar 1777 gebore is en in 1855 oorlede is. Die Kleinste Vierkante Metode word steeds wyd gebruik.

Bronne:

Anderson, DR, Sweeney, DJ, en Williams, TA (2003). Noodsaaklikhede van Statistiek vir Besigheid en Ekonomie (3de uitg.) Mason, Ohio: Southwestern, Thompson Learning.

______. (2010). Verduidelik: Regressie-analise. MIT Nuus.

McIntyre, L. (1994). Gebruik sigaret data vir 'n inleiding tot veelvuldige regressie. Joernaal van Statistiese Onderwys, 2 (1).

Mendenhall, W., en Sincich, T. (1992). Statistiek vir Ingenieurswese en die Wetenskappe (3de uitg.), New York, NY: Dellen Publishing Co.

Panchenko, D. 18.443 Statistieke vir Aansoeke, Herfs 2006, Artikel 14, Eenvoudige Lineêre Regressie. (Massachusetts Instituut vir Tegnologie: MIT OpenCourseWare)