Markov Process & Markov Chain
โMachine Learningโ์ ๊ณต๋ถํ๋ฉด์ ๊ฐ์ธ์ ์ธ ์ฉ๋๋ก ์ ๋ฆฌํ ํฌ์คํธ์ ๋๋ค. ์ง์ ์ ์ธ์ ๋ ํ์์ ๋๋ค :)
Introduction to Markov Property
Definition. Markov Property
A random process has the <Markov property> if the conditional probability distribution of future states of the process depends only upon the present state.
For sequential states $S_i$, the conditional probability follows
\[p(S_{t+1} \mid S_0, S_1, \dots, S_t) = p(S_{t+1} \mid S_t)\]์ด๋ฐ <Markov property>๋ฅผ ๊ฐ์ง Random Process๋ฅผ <Markov Process>๋ผ๊ณ ํ๋ค! <Markov Chain; ๋ง๋ฅด์ฝํ ์ฐ์>, <Brownian motion> ๋ฑ์ด <Markov Process>์ ์ํ๋ค.
vs. Memoryless Property
<Markov Property>๋ ๊ณผ๊ฑฐ(past)์ ์ํ์ ๋ ๋ฆฝ์ด๋ผ๋ ์ฑ์ง ๋๋ฌธ์ โmemorylessโ๋ผ๊ณ ํ๋ค. ๊ทธ๋ฐ๋ฐ, โํ๋ฅ ๊ณผ ํต๊ณ(MATH230)โ ์ ๊ท ์์ ์๊ฐ์๋ <Memoryless property>๋ฅผ ์๋์ ๊ฐ์ด ์ ์ํ๋ค.
\[P(X > n + m \mid X \ge m) = P(X > n)\]๋ ๊ฐ๋ ์ ์๋ก ๊ด๋ จ์ด ์๋ ๊ฒ์ผ๊น? ์ผ๋จ ๋ ๊ฐ๋ ์ด ์ ์๋ ์ํฉ์ ๋ช ํํ ๋ด์ผ ํ ํ์๊ฐ ์๋ค.
<Markov Property>๋ Random Process, ์ฆ sequence of RV์ dependency์ ๋ํด ๋ฌ์ฌํ๊ณ ์๋ค. ๋ฐ๋ฉด์ <Memoryless Property>๋ ์ด๋ค RV์ ๋ถํฌ์ ๋ํด ๋ฌ์ฌํ๊ณ ์๋ค. ์ฆ, ๋์ด ์ ์๋ ์ํฉ ์์ฒด๊ฐ ๋ค๋ฅด๋ค.
์ฆ, <Markov Property>๋ Random Process๊ฐ ๊ฐ๋ Memoryless์ ๋ํ ์ฑ์ง์ด๋ค. <Memoryless Property>๋ Random Value๊ฐ ๊ฐ๋ Memoryless์ ๋ํ ์ฑ์ง์ด๋ค.
Markov Chain
<Markov Chain; ๋ง๋ฅด์ฝํ ์ฒด์ธ, ๋ง๋ฅด์ฝํ ์ฐ์>๋ <Markov Property>๋ฅผ ๊ฐ์ง โDiscreteโ Random Process๋ฅผ ์๋ฏธํ๋ค.
๋ง์ฝ ์ผ๊ธฐ์๋ณด๋ฅผ <Markov Chain>์ผ๋ก ๋ชจ๋ธ๋งํ ์ ์๋ค๋ฉด, ์ค๋์ ๋ ์จ๋ฅผ ํตํด ๋ด์ผ์ ๋ ์จ๋ฅผ ํ๋ฅ ์ ์ผ๋ก ์์ธกํ๊ณ , ๋ค์ ๋ด์ผ์ ๋ ์จ ์ ๋ณด๋ฅผ ํตํด ๋ชจ๋ ์ ๋ ์จ๋ฅผ ํ๋ฅ ์ ์ผ๋ก ์์ธกํ ์ ์๊ฒ ๋๋ค.
<Markov Process>์์๋ ์ํ(State) $S$๋ฅผ ํตํด ๊ฐ ๊ณผ์ ์ ๋ฌ์ฌํ๊ณ , ๋ ๊ฐ ์ํ์์์ ์ ์ด(transition)์ ๋ํ ํ๋ฅ ์ ์๋์ ๊ฐ์ด <transition diagram>์ผ๋ก ํํํ ์ ์๋ค.
๋๋ transition์ ๋ํ ์ ๋ณด๋ฅผ ํ๋ ฌ๋ก ํํํ ์๋ ์๋ค. ์ด๋ฅผ <transition matrix; ์ ์ด ํ๋ ฌ>์ด๋ผ๊ณ ํ๋ค.
์ค๋/๋ด์ผ | ๋ง์ | ํ๋ฆผ |
---|---|---|
๋ง์ | 0.3 | 0.7 |
ํ๋ฆผ | 0.4 | 0.6 |
<Markov Chain>์ ์ฅ์ ์ <transition matrix>๋ฅผ $n$๋ฒ ๊ณฑํด $n$์ผ ํ์ ์ํ๋ฅผ ์ ์ด ํ๋ฅ ์ ์ ์ ์๋ค๋ ๊ฒ์ด๋ค! ์๋ฅผ ๋ค์ด ๋ชจ๋ ์ ์ ์ด ํ๋ฅ ์ ์๊ณ ์ถ๋ค๋ฉด, <transition matrix> $P$๋ฅผ ๋๋ฒ ๊ณฑํ๋ฉด ๋๋ค.
\[P^2 = P P = \begin{pmatrix} 0.3 & 0.7 \\ 0.4 & 0.6 \end{pmatrix} \begin{pmatrix} 0.3 & 0.7 \\ 0.4 & 0.6 \end{pmatrix} = \begin{pmatrix} 0.37 & 0.63 \\ 0.36 & 0.64 \end{pmatrix}\]์ฌ๊ธฐ๊น์ง์ ์ค๋ช ์ <Markov Chain>์ ๋ํ ์ ๋ง ์ฝ๊ณ ๊ฐ๋จํ ์ค๋ช ์ด๋ค. ์์ ์์๋ State $S$๊ฐ Discrete์ด๊ณ , Time ์ญ์ Discrete์ด๋ค. ๊ทธ๋ฌ๋ <Markov Chain>์ ๊ฐ๋ ์ ํ์ฅํ๋ฉด, State-space๊ฐ continuous์ด๊ฑฐ๋ Time-space continuousํ ๊ฒฝ์ฐ๋ ์๊ฐํด๋ณผ ์ ์๋ค. ๐คฉ ๋ ์์ธํ ๋ด์ฉ์ Wikipedia - Markov Chain์ ์ดํด๋ณด์.
์์ฝ.
- <Markov Property>: Random Process์์์ Memorylessness์ ๋ํ ์ฑ์ง
- <Markov Chain>: Discrete Random Process with Markov Property
- <Markov Model>: <Markov Chain>์ ๋ฐ๋ฅด๋ ๋ชจ๋ธ
๋ ์ฝ์๊ฑฐ๋ฆฌ.