multiple_regression_examples
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revision | ||
multiple_regression_examples [2020/07/06 14:52] – hkimscil | multiple_regression_examples [2023/10/21 13:26] (current) – hkimscil | ||
---|---|---|---|
Line 183: | Line 183: | ||
그렇다면 stress 와 bmi가 공통으로 기여하는 부분을 뺀 순수 기여분은 어떻게 될까? 즉, 위의 .80 부분 중 bmi와 공통으로 기여하는 부분을 제외한 나머지는 얼마일까? | 그렇다면 stress 와 bmi가 공통으로 기여하는 부분을 뺀 순수 기여분은 어떻게 될까? 즉, 위의 .80 부분 중 bmi와 공통으로 기여하는 부분을 제외한 나머지는 얼마일까? | ||
+ | ===== 방법 1 ===== | ||
이를 위해서 아래를 계획, 수행해본다. | 이를 위해서 아래를 계획, 수행해본다. | ||
- | - 독립변인 | + | - 각각의 |
- | * stress의 순수영향력을 보기 위한 것이므로 bmi와의 상관관계 제곱값, 즉, R제곱 값을 구한다 | + | - 공통설명력은 얼마나 되는지 본다. |
- | * '' | + | |
- | - 위의 R제곱기여 분의 | + | |
+ | - 1을 위해서는 각 독립변인과 종속변인인 happiness의 semi-partial correlation값을 구해서 제곱해보면 되겠다. | ||
+ | - 2를 위해서는 두 독립변인을 써서 구했던 r 제곱값에서 위의 1에서 구한 제곱값들을 제외한 나머지를 보면 된겠다. | ||
+ | |||
+ | * 결론을 내기 위한 계획을 세우고 실행한다. | ||
+ | * 이는 아래와 같이 정리할 수 있다 | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ===== 각각의 독립변인이 고유하게 미치는 영향력은 (설명력은) 무엇인지를 본다 ===== | ||
< | < | ||
- | lm.stress.bmi <- lm(stress | + | > spcor(d.yyk) |
- | summary(lm.stress.bmi) | + | $estimate |
+ | | ||
+ | bmi | ||
+ | stress | ||
+ | happiness -0.1334127 -0.2858909 | ||
+ | |||
+ | $p.value | ||
+ | | ||
+ | bmi 0.0000000 0.1517715 0.4815643 | ||
+ | stress | ||
+ | happiness 0.4902316 0.1327284 0.0000000 | ||
+ | |||
+ | $statistic | ||
+ | bmi | ||
+ | bmi 0.0000000 | ||
+ | stress | ||
+ | happiness -0.6994855 -1.550236 | ||
+ | |||
+ | $n | ||
+ | [1] 30 | ||
+ | |||
+ | $gp | ||
+ | [1] 1 | ||
+ | |||
+ | $method | ||
+ | [1] " | ||
+ | |||
+ | > | ||
+ | > | ||
</ | </ | ||
+ | happiness에 영향을 주는 변인을 보는 것이므로 | ||
+ | < | ||
+ | | ||
+ | happiness -0.1334127 -0.2858909 | ||
+ | </ | ||
+ | 를 본다. 그리고 이 값의 제곱값이 각 독립변인의 고유 설명력이다. | ||
+ | < | ||
+ | > (-0.1334127)^2 | ||
+ | [1] 0.01779895 | ||
+ | > (-0.2858909)^2 | ||
+ | [1] 0.08173361 | ||
+ | > | ||
+ | </ | ||
+ | 즉, '' | ||
+ | 이를 파티션을 하면서 직접 살펴보려면 | ||
+ | * 우선 $\frac{b}{a+b+c+d}$ 를 보려고 한다. | ||
+ | * 그림에서 m.bmi <- lm((a+b+c+d)~(b+e)) 와 같이 한후에 r제곱값을 보고, sqrt 하면 r값을 알 수 있다. | ||
+ | * b+e를 구하려면 lm(bmi~stress)를 한후, 그 residual을 보면 된다. | ||
+ | * a+b+c+d 는 happiness 그 자체이다. | ||
+ | |||
+ | < | ||
+ | m.bmi <- lm(bmi ~ stress) | ||
+ | mod <- lm(happiness ~ resid(m.bmi)) | ||
+ | summary(mod) | ||
+ | </ | ||
< | < | ||
- | > lm.stress.bmi <- lm(stress ~ bmi) | + | > m.bmi <- lm(bmi ~ stress) |
- | > summary(lm.stress.bmi) | + | > mod <- lm(happiness |
+ | > summary(mod) | ||
Call: | Call: | ||
- | lm(formula = stress | + | lm(formula = happiness |
Residuals: | Residuals: | ||
| | ||
- | -1.17393 -0.35678 -0.01209 0.37939 0.86685 | + | -1.97283 -0.94440 |
Coefficients: | Coefficients: | ||
- | | + | Estimate Std. Error t value Pr(> |
- | (Intercept) | + | (Intercept) |
- | bmi 0.16787 0.01606 10.454 3.58e-11 *** | + | resid(m.bmi) -0.05954 0.08358 -0.712 0.482 |
--- | --- | ||
Signif. codes: | Signif. codes: | ||
- | Residual standard error: | + | Residual standard error: |
- | Multiple R-squared: | + | Multiple R-squared: |
- | F-statistic: | + | F-statistic: |
- | > | + | |
</ | </ | ||
- | 위의 | + | 위의 |
+ | 다음으로 $\frac {d}{a+b+c+d}$을 구해서 stress 고유설명력을 본다. 이제는 | ||
< | < | ||
- | res.lm.stress.bmi <- lm.stress.bmi$residuals | + | m.stress <- lm(stress |
- | res.lm.stress.bmi | + | mod2 <- lm(happiness ~ resid(m.stress)) |
+ | sumary(mod2) | ||
</ | </ | ||
< | < | ||
- | > res.lm.stress.bmi <- lm.stress.bmi$residuals | + | > m.stress <- lm(stress ~ bmi) |
- | > res.lm.stress.bmi | + | > mod2 <- lm(happiness ~ resid(m.stress)) |
- | | + | > summary(mod2) |
- | | + | |
- | | + | |
- | | + | |
- | 13 | + | |
- | -0.576813795 | + | |
- | 19 | + | |
- | -0.030058633 -0.214713937 -0.399369241 | + | |
- | 25 | + | |
- | -0.154777303 | + | |
- | > | + | |
- | </ | + | |
- | + | ||
- | 이 residuals이 DV (종속변인) 설명에 얼마나 기여하는지를 보기 위해서 regression을 하면 | + | |
- | + | ||
- | < | + | |
- | lm.happiness.reslmstressbmi <- lm(happiness | + | |
- | summary(lm.happiness.reslmstressbmi) | + | |
- | anova(lm.happiness.reslmstressbmi) | + | |
- | </code> | + | |
- | + | ||
- | < | + | |
- | > lm.happiness.reslmstressbmi | + | |
- | > summary(lm.happiness.reslmstressbmi) | + | |
Call: | Call: | ||
- | lm(formula = happiness ~ res.lm.stress.bmi) | + | lm(formula = happiness ~ resid(m.stress)) |
Residuals: | Residuals: | ||
Line 262: | Line 302: | ||
Coefficients: | Coefficients: | ||
- | | + | |
- | (Intercept) | + | (Intercept) |
- | res.lm.stress.bmi | + | resid(m.stress) |
--- | --- | ||
Signif. codes: | Signif. codes: | ||
Line 272: | Line 312: | ||
F-statistic: | F-statistic: | ||
- | > anova(lm.happiness.reslmstressbmi) | ||
- | Analysis of Variance Table | ||
- | |||
- | Response: happiness | ||
- | Df Sum Sq Mean Sq F value Pr(>F) | ||
- | res.lm.stress.bmi | ||
- | Residuals | ||
- | > | ||
> | > | ||
</ | </ | ||
+ | Multiple R-squared 인 0.08173 이 고유 설명력이고, | ||
+ | 0.08173 값과 0.0178을 더한 값을 제외한 lm(happiness~bmi+stress) 에서의 R-squared 값이 공통설명력이 된다. 아래의 분석 결과에서 Multiple R-squared: | ||
+ | < | ||
+ | m.both <- lm(happiness~bmi+stress) | ||
+ | summary(m.both) | ||
+ | </ | ||
+ | < | ||
+ | > m.both <- lm(happiness~bmi+stress) | ||
+ | > summary(m.both) | ||
+ | Call: | ||
+ | lm(formula = happiness ~ bmi + stress) | ||
+ | Residuals: | ||
+ | | ||
+ | -0.89293 -0.40909 | ||
+ | |||
+ | Coefficients: | ||
+ | Estimate Std. Error t value Pr(> | ||
+ | (Intercept) | ||
+ | bmi | ||
+ | stress | ||
+ | --- | ||
+ | Signif. codes: | ||
+ | |||
+ | Residual standard error: 0.5869 on 27 degrees of freedom | ||
+ | Multiple R-squared: | ||
+ | F-statistic: | ||
+ | </ | ||
+ | |||
+ | 이 값은 0.72217 이다. | ||
+ | < | ||
+ | > 0.8217- (0.08173 + 0.0178) | ||
+ | [1] 0.72217 | ||
+ | > | ||
+ | </ | ||
+ | bmi나 stress 중 하나를 IV로 취하는 것이 좋다는 결론을 내린다. | ||
multiple_regression_examples.1594014726.txt.gz · Last modified: 2020/07/06 14:52 by hkimscil