User Tools

Site Tools


expected_value_and_variance_properties

Theorems

$E(X)$ $\sum{X}\cdot P(X=x)$
$E(X^2)$ $\sum{X^{2}}\cdot P(X=x)$
$E(aX + b)$ $aE(X) + b$
$E(f(X))$ $\sum{f(X)} \cdot P(X=x)$
$E(aX - bY)$ $aE(X)-bE(Y)$
$E(X1 + X2 + X3)$ $E(X) + E(X) + E(X) = 3E(X) \;\;\; $ 1)
$Var(X)$ $E(X-\mu)^{2} = E(X^{2})-E(X)^{2} \;\;\; $ see $\ref{var.theorem.1} $
$Var(c)$ $0 \;\;\; $ see $\ref{var.theorem.41}$
$Var(aX + b)$ $a^{2}Var(X) \;\;\; $ see $\ref{var.theorem.2}$ and $\ref{var.theorem.3}$
$Var(aX - bY)$ $a^{2}Var(X) + b^{2}Var(Y)$ see $\ref{var.theorem.2}$ and $\ref{var.theorem.52}$
$Var(X1 + X2 + X3)$ $Var(X) + Var(X) + Var(X) = 3 Var(X) \;\;\; $ 2)
$Var(X1 + X1 + X1)$ $Var(3X) = 3^2 Var(X) = 9 Var(X) $

see also why n-1

Variance Theorem 1

\begin{align} Var[X] & = {E{(X-\mu)^2}} \nonumber \\ & = E[(X^2 - 2 X \mu + \mu^2)] \nonumber \\ & = E[X^2] - 2 \mu E[X] + E[\mu^2] \nonumber \\ & = E[X^2] - 2 \mu E[X] + E[\mu^2], \; \text{because E[X]=} \mu \text{, and E[} \mu^2 \text{] = } \mu^2, \nonumber \\ & = E[X^2] - 2 \mu^2 + \mu^2 \nonumber \\ & = E[X^2] - \mu^2 \nonumber \\ & = E[X^2] - E[X]^2 \label{var.theorem.1} \tag{variance theorem 1} \\ \end{align}

Theorem 2: Why square

$ \ref{var.theorem.1} $ 에 따르면
$$ Var[X] = E[X^2] − E[X]^2 $$
이므로

\begin{align*} Var[aX] & = E[a^2X^2] − (E[aX])^2 \\ & = a^2 E[X^2] - (a E[X])^2 \\ & = a^2 E[X^2] - (a^2 E[X]^2) \\ & = a^2 (E[X^2] - (E[X])^2) \\ & = a^2 (Var[X]) \label{var.theorem.2} \tag{variance theorem 2} \\ \end{align*}

Theorem 3: Why Var[X+c] = Var[X]

\begin{align} Var[X + c] = Var[X] \nonumber \end{align}

$ \ref{var.theorem.1} $ 에 따르면
$$ Var[X] = E[X^2] − E[X]^2 $$
이므로

\begin{align} Var[X + c] = & E[(X+c)^2] - E[X+c]^2 \nonumber \\ = & E[(X^2 + 2cX + c^2)] \label{tmp.1} \tag{temp 1} \\ & − E(X + c)E(X + c) \label{tmp.2} \tag{temp 2} \\ \end{align}

$ \ref{tmp.1} $ 에서
\begin{align} E (X^2 + 2cX + c^2) = E (X^2) + 2cE(X) + c^2 \\ \end{align}

그리고 $\ref{tmp.2}$ 에서 보면
\begin{align} E(X + c)E(X + c) = & E(X)(E(X + c)) + E(c)(E(X + c)) \nonumber \\ = & E(X)^2 + cE(X) + cE(X) + c^2 \nonumber \\ = & E(X)^2 + 2cE(X) + c^2 \\ \end{align}

위의 둘을 모두 보면
\begin{align} Var(X + c) = & E(X^2) + 2cE(X) + c^2 − E(X)^2 − 2cE(X) − c^2 \nonumber \\ = & E(X^2) − E(X)^2 \nonumber \\ = & Var(X) \label{var.theorem.3} \tag{variance theorem 3} \\ \end{align}

Theorem 4: Var(c) = 0

\begin{align} Var(X) = & 0; \;\;\;\; \text{if X = c, a constant } \label{var.theorem.41} \tag{variance theorem 4.1} \\ \text{otherwise } \nonumber \\ Var(X) \ge & 0 \label{var.theorem.42} \tag{variance theorem 4.2} \\ \end{align}
Variance는 기본적으로 아래와 같다. 이 때 $X=c$ 라고 (c=상수) 하면
\begin{align} Var(X) & = E[(X − E(X))^2] \text{ because X = c, and E(X) = c} \nonumber \\ & = E[(c-c)^2] \nonumber \\ & = 0 \nonumber \\ \text{if X } \ne \text{c, then} \nonumber \\ & \text{because } (X − E(X))^2 \ge 0 \nonumber \\ & Var(X) \ge 0 \nonumber \end{align}

Theorem 5: Var(X+Y)

\begin{align} Var(X + Y) = Var(X) + Var(Y) + 2Cov(X, Y) \label{var.theorem.51} \tag{variance theorem 5-1} \\ Var(X − Y) = Var(X) + Var(Y) − 2Cov(X, Y) \label{var.theorem.52} \tag{variance theorem 5-2} \\ \end{align}

$ \ref{var.theorem.1} $ 에서
$$ Var[X] = E[X^2] - E[(X)]^2 $$
이므로 X ← X+Y 를 대입해보면

\begin{align} Var[X+Y] = & E[(X + Y)^2] \label{tmp.03} \tag{temp 3} \\ - & E[(X + Y)]^2 \label{tmp.04} \tag{temp 4} \end{align}
$\ref{tmp.03}$과 $\ref{tmp.04}$ 는 아래처럼 정리된다

\begin{align*} & E[(X + Y)^2] = E[X^2 + 2XY + Y^2] = E[X^2] + 2E[XY] + E[Y^2] \\ - & [E(X + Y)]^2 = [E(X) + E(Y)]^2 = E(X)^2 + 2E(X)E(Y) + E(Y)^2 \\ \end{align*}

각 줄의 가장 오른쪽 정리식을 보면,

\begin{align*} Var[(X+Y)] = & E[X^2] & + & 2E[XY] & + & E[Y^2] \\ - & E(X)^2 & - & 2E(X)E(Y) & - & E(Y)^2 \\ & Var[X] & + & 2 E[XY]-2E(X)E(Y) & + & Var[Y] \\ \end{align*}

가운데 부분은
\begin{align} E(XY)- E(X)E(Y) = Cov[X,Y] \label{cov} \tag{covariance} \\ \end{align}

따라서
\begin{align*} Var[(X+Y)] = Var[X] + 2 Cov[X,Y] + Var[Y] \\ \end{align*}

Questions

Which one is correct?

\begin{align} Var(X+X) & = Var(X) + Var(X) & = 2 * Var(X) \label{tmp.05} \tag{1} \\ Var(X+X) & = Var(2X) & = 2^2 * Var(X) \label{tmp.06} \tag{2} \end{align}

$\ref{var.theorem.51}$ 을 다시 보면
\begin{align*} Var(X+Y) = Var(X) + 2 Cov(X,Y) + Var(Y) \\ \end{align*}

X와 Y가 independent 한 event라고 (group) 하면
$ Cov(X,Y) = 0 $ 이므로
\begin{align*} Var[(X+Y)] = Var[X] + Var[Y] \\ \end{align*}

보통 X1, X2 집합은 같은 특성을 (statistic) 갖는 두 독립적인 집합을 의미하므로
\begin{align*} Var(X1 + X2) = & Var(X1) + Var(X2) \\ & \text{because X1 and x2 have} \\ & \text{X's statistics (the same mean} \\ & \text{and variance of X)} \\ = & Var(X) + Var(X) \\ \end{align*}

X1, X2는 같은 분포를 갖는 서로 독립적인 집합이고 (가령 각 집합은 n=10000이고 mean=0, var=4의 특성을 갖는) 이 때의 두 집합을 합한 집합의 Variance는 각 Variance를 더한 값과 같다는 뜻. 반면에 아래는 동일한 집합을 선형적인 관계로 옮긴 것 (X to 2X).

\begin{align} Var(X1 + X1) & = Var(2*X1) \nonumber \\ & = 2^2 Var(X1) \nonumber \\ & = 4 Var(X1) \nonumber \\ \end{align}

따라서 수식 $(\ref{tmp.06})$ 가 참이다.
이것은 아래처럼 생각해 볼 수도 있다.

$\ref{var.theorem.51}$ 에서 $Y$ 대신에 $X$를 대입하면
\begin{align*} Var(X + X) & = Var(X) + 2 Cov(X, X) + Var(X) \\ & \;\;\;\;\; \text{because } \\ & \;\;\;\;\; \text{according to the below } \ref{cov.xx}, \\ & \;\;\;\;\; Cov(X,X) = Var(X) \\ & = Var(X) + 2 Var(X) + Var(X) \;\;\; \\ & = 4 Var(X) \end{align*}

\begin{align} Cov[X,Y] & = E(XY) - E(X)E(Y) \nonumber \\ Cov[X,X] & = E(XX) - E(X)E(X) \nonumber \\ & = E(X^2) - E(X)^2 \nonumber \\ & = V(X) \label{cov.xx} \tag{3} \end{align}

e.gs in R

R에서 이를 살펴보면

# variance theorem 4-1, 4-2
# http://commres.net/wiki/variance_theorem
# need a function, rnorm2
rnorm2 <- function(n,mean,sd) { mean+sd*scale(rnorm(n)) }

m <- 50
v <- 4
n <- 100000
set.seed(1)
x1 <- rnorm2(n, m, sqrt(v))
x2 <- rnorm2(n, m, sqrt(v))
x3 <- rnorm2(n, m, sqrt(v))

m.x1 <- round(mean(x1),3)
m.x2 <- round(mean(x2),3)
m.x3 <- round(mean(x3),3)
m.x1
m.x2
m.x3

y1 <- 3*x1 +5 
exp.y1 <- mean(y1) 
exp.3xplus5 <- 3 * mean(x1) + 5
exp.y1
exp.3xplus5

v.x1 <- var(x1)
v.x2 <- var(x2)
v.x3 <- var(x3)
v.x1
v.x2
v.x3

var(x1) 
var((3*x1)+5)
3^2 * var(x1)

v.12 <- var(x1 + x2)
v.12
######################################
## v.12 should be near var(x1)+var(x2)
######################################
## 정확히 2*v가 아닌 이유는 x1, x2가 
## 아주 약간은 (random하게) dependent하기 때문 
##(혹은 상관관계가 있기 때문)
## theorem 5-1 에서 
## var(x1+x2) = var(x1)+var(x2)+ (2*cov(x1,x2))

cov.x1x2 <- cov(x1,x2)

var(x1 + x2)
var(x1) + var(x2) + (2*cov.x1x2)

# theorem 5-2 도 확인
var(x1 - x2)
var(x1) + var(x2) - (2 * cov.x1x2)

# only when x1, x2 are independent (orthogonal)
# var(x1+x2) == var(x1) + var(x2)
########################################

## 그리고 동일한 (독립적이지 않은) 집합 X1에 대해서는
v.11 <- var(x1 + x1) 
# var(2*x1) = 2^2 var(X1)
v.11
1)
X1,X2,X3는 동일한 statistics을 갖는 (X의 특성을 갖는, 즉, 집합 X의 동일한 mean, variance, sdev 값을 갖는) 집합
2)
X1, x2, x3는 동일한 특성을 (statistic, 가령 Xbar = 0, sd=1) 갖는 독립적인 세 집합이다. 따라서 세집합의 분산은 모두 1인 상태이고, 이들의 분삽값은 모두 동일하므로 Var(3X)의 성질을 갖는다.
expected_value_and_variance_properties.txt · Last modified: 2023/12/07 12:18 by hkimscil

Donate Powered by PHP Valid HTML5 Valid CSS Driven by DokuWiki