regression

Differences

This shows you the differences between two versions of the page.

Link to this comparison view

Both sides previous revisionPrevious revision
Next revision
Previous revision
regression [2023/05/24 08:53] – [Slope test] hkimscilregression [2024/09/30 01:13] (current) – [E.g., Simple regression] hkimscil
Line 23: Line 23:
  
 상관관계에서 살펴 본것처럼, 관측된 데이터는 최소자승 (Least Squared) 법을 이용하여 회귀식을 유도할 수 있는데, 이때의 절편과 기울기 값은 각각 다음과 같이 구할 수 있다: 상관관계에서 살펴 본것처럼, 관측된 데이터는 최소자승 (Least Squared) 법을 이용하여 회귀식을 유도할 수 있는데, 이때의 절편과 기울기 값은 각각 다음과 같이 구할 수 있다:
- +\begin{eqnarray*} 
-$$b = \displaystyle \frac{SP}{SS_X}$$  +\displaystyle \frac{SP}{SS_X} \\ 
-$$a = \displaystyle \overline{Y} - b \overline{X} $$ +\displaystyle \overline{Y} - b \overline{X}  
 +\end{eqnarray*} 
 +참조: [[deriviation of a and b in a simple regression|리그레션에서 a와 b 구하기]]
  
 [{{:f03x1b.gif }}] 최소자승이 의미하는 것은 옆의 그림과 같다. regression line (회귀선)으로 X 값에 해당하는 Y 값을 예측할 수 있는데, 이때에는 실측값과 차이가 날 수 있다. 이 차이가 위의 그림에서 녹색선인데, 이 녹색선의 합이 최소값을 갖도록하는 것을 최소자승(least squared)법이라고 한다.  [{{:f03x1b.gif }}] 최소자승이 의미하는 것은 옆의 그림과 같다. regression line (회귀선)으로 X 값에 해당하는 Y 값을 예측할 수 있는데, 이때에는 실측값과 차이가 날 수 있다. 이 차이가 위의 그림에서 녹색선인데, 이 녹색선의 합이 최소값을 갖도록하는 것을 최소자승(least squared)법이라고 한다. 
Line 301: Line 303:
 위의 표에서 (Anova table), 위의 표에서 (Anova table),
  
-| for SS   | for degrees of freedom   |+@grey: for SS   @grey: for df    |
 | @white: white \\ = explained error (E) \\ = $SS{reg}$  | @lightblue: for regression \\ (number of variable -1) \\ = 1 (light blue) | | @white: white \\ = explained error (E) \\ = $SS{reg}$  | @lightblue: for regression \\ (number of variable -1) \\ = 1 (light blue) |
 | @orange: orange \\ = unexplained error (U) \\ = $SS{res}$  | @lightgreen: for residual \\ (number of case - number of variable) \\ = 8 (green) | | @orange: orange \\ = unexplained error (U) \\ = $SS{res}$  | @lightgreen: for residual \\ (number of case - number of variable) \\ = 8 (green) |
Line 350: Line 352:
 {{:acidity.sav}} \\ {{:acidity.sav}} \\
 {{:acidity.sps}} \\ {{:acidity.sps}} \\
 +
 +<file csv acidity.csv>
 +stream spec83 ph83
 +Moss 6 6.30
 +Orcutt 9 6.30
 +Ellinwood 6 6.30
 +Jacks 3 6.20
 +Riceville 5 6.20
 +Lyons 3 6.10
 +Osgood 5 5.80
 +Whetstone 4 5.70
 +UpperKeyup 1 5.70
 +West 7 5.70
 +Boyce 4 5.60
 +MormonHollow 4 5.50
 +Lawrence 5 5.40
 +Wilder 0 4.70
 +Templeton 0 4.50
 +</file>
 +<code>
 +df <- read.csv("http://commres.net/wiki/_export/code/regression?codeblock=3", sep = "\t")
 +</code>
  
 <code>stream         spec83 ph83 <code>stream         spec83 ph83
Line 768: Line 792:
 따라서 t = b / se = 3.655631 따라서 t = b / se = 3.655631
  
-<code>x <- c(1, 2, 3, 4, 5) 
-y <- c(1, 1, 2, 2, 4) 
-mody <- lm(y ~ x)  
-</code> 
  
-<code> 
-> x <- c(1, 2, 3, 4, 5) 
-> y <- c(1, 1, 2, 2, 4) 
-> mody <- lm(y ~ x)  
-> summary(mody) 
- 
-Call: 
-lm(formula = y ~ x) 
- 
-Residuals: 
-                  2          3          4          5  
- 4.000e-01 -3.000e-01 -3.886e-16 -7.000e-01  6.000e-01  
- 
-Coefficients: 
-            Estimate Std. Error t value Pr(>|t|)   
-(Intercept)  -0.1000     0.6351  -0.157   0.8849   
-x             0.7000     0.1915   3.656   0.0354 * 
---- 
-Signif. codes:  0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1 
- 
-Residual standard error: 0.6055 on 3 degrees of freedom 
-Multiple R-squared:  0.8167, Adjusted R-squared:  0.7556  
-F-statistic: 13.36 on 1 and 3 DF,  p-value: 0.03535 
- 
- 
-</code> 
 ====== E.g., 4. Simple regression ====== ====== E.g., 4. Simple regression ======
 Another example of simple regression: from {{:elemapi.sav}} \\ Another example of simple regression: from {{:elemapi.sav}} \\
regression.1684885994.txt.gz · Last modified: 2023/05/24 08:53 by hkimscil

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki