multiple_regression_examples
Differences
This shows you the differences between two versions of the page.
Both sides previous revisionPrevious revisionNext revision | Previous revisionNext revisionBoth sides next revision | ||
multiple_regression_examples [2020/07/06 15:04] – [E.g. 1] hkimscil | multiple_regression_examples [2020/12/01 17:05] – [각각의 독립변인이 고유하게 미치는 영향력은 (설명력은) 무엇인지를 본다] hkimscil | ||
---|---|---|---|
Line 185: | Line 185: | ||
이를 위해서 아래를 계획, 수행해본다. | 이를 위해서 아래를 계획, 수행해본다. | ||
- | - 독립변인 | + | - 각각의 |
- | * stress의 순수영향력을 보기 위한 것이므로 bmi와의 상관관계 제곱값, 즉, R제곱 값을 구한다 | + | - 공통설명력은 얼마나 되는지 본다. |
- | * '' | + | |
- | - 위의 R제곱기여 분의 | + | |
- | < | + | - 1을 위해서는 각 독립변인과 종속변인인 happiness의 semi-partial correlation값을 구해서 제곱해보면 되겠다. |
- | lm.stress.bmi <- lm(stress ~ bmi) | + | - 2를 위해서는 두 독립변인을 써서 구했던 r 제곱값에서 위의 1에서 구한 제곱값들을 제외한 나머지를 보면 된겠다. |
- | summary(lm.stress.bmi) | + | |
- | </ | + | |
- | < | + | * 결론을 내기 위한 계획을 세우고 실행한다. |
- | > lm.stress.bmi <- lm(stress ~ bmi) | + | * 이는 아래와 같이 정리할 수 있다 |
- | > summary(lm.stress.bmi) | + | |
- | Call: | + | {{:pasted:20201201-170048.png}} |
- | lm(formula = stress ~ bmi) | + | |
- | + | ||
- | Residuals: | + | |
- | | + | |
- | -1.17393 -0.35678 -0.01209 | + | |
- | + | ||
- | Coefficients: | + | |
- | Estimate Std. Error t value Pr(> | + | |
- | (Intercept) -1.40167 | + | |
- | bmi 0.16787 | + | |
- | --- | + | |
- | Signif. codes: | + | |
- | + | ||
- | Residual standard error: 0.5755 on 28 degrees of freedom | + | |
- | Multiple R-squared: | + | |
- | F-statistic: | + | |
- | > | + | |
- | </ | + | |
- | + | ||
- | 위의 아웃풋에서 우리는 bmi와 stress간의 상관관계는 sqrt(0.796)임을 알 수 있고, stress 총 분산 중, R제곱 값인 .796 (약 80%)를 bmi가 설명하고 있다고 하겠다. 여기서 아래의 코드를 이용하여 residual을 알아볼 수 있다. | + | |
+ | ===== 각각의 독립변인이 고유하게 미치는 영향력은 (설명력은) 무엇인지를 본다 ===== | ||
< | < | ||
- | res.lm.stress.bmi <- lm.stress.bmi$residuals | + | > spcor(d.yyk) |
- | res.lm.stress.bmi | + | $estimate |
- | </ | + | |
+ | bmi | ||
+ | stress | ||
+ | happiness -0.1334127 -0.2858909 | ||
- | < | + | $p.value |
- | > res.lm.stress.bmi <- lm.stress.bmi$residuals | + | bmi stress |
- | > res.lm.stress.bmi | + | bmi |
- | | + | stress |
- | 0.866854946 | + | happiness |
- | | + | |
- | 0.178594267 -1.006061037 -1.173929495 -0.173929495 -0.358584799 -0.543240104 | + | |
- | 13 | + | |
- | -0.576813795 | + | |
- | 19 | + | |
- | -0.030058633 -0.214713937 -0.399369241 | + | |
- | 25 | + | |
- | -0.154777303 | + | |
- | > | + | |
- | </ | + | |
- | 이 residuals이 DV (종속변인) 설명에 얼마나 기여하는지를 보기 위해서 regression을 하면 | + | $statistic |
+ | | ||
+ | bmi 0.0000000 | ||
+ | stress | ||
+ | happiness -0.6994855 -1.550236 | ||
- | < | + | $n |
- | lm.happiness.reslmstressbmi <- lm(happiness ~ res.lm.stress.bmi) | + | [1] 30 |
- | summary(lm.happiness.reslmstressbmi) | + | |
- | anova(lm.happiness.reslmstressbmi) | + | |
- | </ | + | |
- | < | + | $gp |
- | > lm.happiness.reslmstressbmi <- lm(happiness ~ res.lm.stress.bmi) | + | [1] 1 |
- | > summary(lm.happiness.reslmstressbmi) | + | |
- | Call: | + | $method |
- | lm(formula = happiness ~ res.lm.stress.bmi) | + | [1] " |
- | Residuals: | ||
- | Min 1Q Median | ||
- | -1.9383 -1.2297 | ||
- | |||
- | Coefficients: | ||
- | Estimate Std. Error t value Pr(> | ||
- | (Intercept) | ||
- | res.lm.stress.bmi | ||
- | --- | ||
- | Signif. codes: | ||
- | |||
- | Residual standard error: 1.308 on 28 degrees of freedom | ||
- | Multiple R-squared: | ||
- | F-statistic: | ||
- | |||
- | > anova(lm.happiness.reslmstressbmi) | ||
- | Analysis of Variance Table | ||
- | |||
- | Response: happiness | ||
- | Df Sum Sq Mean Sq F value Pr(>F) | ||
- | res.lm.stress.bmi | ||
- | Residuals | ||
> | > | ||
> | > | ||
</ | </ | ||
+ | happiness에 영향을 주는 변인을 보는 것이므로 | ||
< | < | ||
- | Multiple R-squared: | + | |
- | F-statistic: | + | happiness |
</ | </ | ||
- | + | 를 본다. 그리고 | |
- | 이제 | + | |
< | < | ||
- | lm.bmi.stress <- lm(bmi~stress) | + | > (-0.1334127)^2 |
- | summary(lm.bmi.stress) | + | [1] 0.01779895 |
- | anova(lm.bmi.stress) | + | > (-0.2858909)^2 |
- | res.lm.bmi.stress <- lm.bmi.stress$residuals | + | [1] 0.08173361 |
- | lm.happiness.reslmbmistress <- lm(happiness ~ res.lm.bmi.stress) | + | > |
- | summary(lm.happiness.reslmbmistress) | + | |
- | anova(lm.happiness.reslmbmistress) | + | |
</ | </ | ||
+ | 즉, '' | ||
- | < | ||
- | > lm.bmi.stress <- lm(bmi~stress) | ||
- | > summary(lm.bmi.stress) | ||
- | |||
- | Call: | ||
- | lm(formula = bmi ~ stress) | ||
- | |||
- | Residuals: | ||
- | Min 1Q Median | ||
- | -6.2169 -2.0524 | ||
- | |||
- | Coefficients: | ||
- | Estimate Std. Error t value Pr(> | ||
- | (Intercept) | ||
- | stress | ||
- | --- | ||
- | Signif. codes: | ||
- | |||
- | Residual standard error: 3.059 on 28 degrees of freedom | ||
- | Multiple R-squared: | ||
- | F-statistic: | ||
- | |||
- | > anova(lm.bmi.stress) | ||
- | Analysis of Variance Table | ||
- | |||
- | Response: bmi | ||
- | Df Sum Sq Mean Sq F value | ||
- | stress | ||
- | Residuals 28 261.95 | ||
- | --- | ||
- | Signif. codes: | ||
- | > res.lm.bmi.stress <- lm.bmi.stress$residuals | ||
- | > lm.happiness.reslmbmistress <- lm(happiness ~ res.lm.bmi.stress) | ||
- | > summary(lm.happiness.reslmbmistress) | ||
- | |||
- | Call: | ||
- | lm(formula = happiness ~ res.lm.bmi.stress) | ||
- | |||
- | Residuals: | ||
- | | ||
- | -1.97283 -0.94440 | ||
- | |||
- | Coefficients: | ||
- | Estimate Std. Error t value Pr(> | ||
- | (Intercept) | ||
- | res.lm.bmi.stress -0.05954 | ||
- | --- | ||
- | Signif. codes: | ||
- | |||
- | Residual standard error: 1.353 on 28 degrees of freedom | ||
- | Multiple R-squared: | ||
- | F-statistic: | ||
- | |||
- | > anova(lm.happiness.reslmbmistress) | ||
- | Analysis of Variance Table | ||
- | |||
- | Response: happiness | ||
- | Df Sum Sq Mean Sq F value Pr(>F) | ||
- | res.lm.bmi.stress | ||
- | Residuals | ||
- | </ | ||
- | |||
- | < | ||
- | Multiple R-squared: | ||
- | F-statistic: | ||
- | </ | ||
- | stress: 8.1% | ||
- | bmi: 1.78% | ||
- | 만이 독립변인의 고유영향력이고 이를 제외한 | ||
- | 82.17 - (9.88) = 72.29 가 | ||
- | 공통영향력이라고 하겠다. | ||
multiple_regression_examples.txt · Last modified: 2023/10/21 13:26 by hkimscil