@@ -727,91 +727,6 @@ i.i.d. ←────────────|───────────
727727
728728### 2.5.2 1st Order Markov Process
729729
730- > ** 1차 마르코프 과정이란?**
731-
732- 확률 과정 $X$ = $\{ X_1, X_2, \dots, X_n\} $이 있다고 할 때,
733- $P(X_i \mid X_ {i-1}, X_ {i-2}, \dots, X_1) = P(X_i \mid X_ {i-1})$를 만족하는 과정을 1차 마르코프 과정이라고 한다.
734-
735- $\therefore$ 현재 상태 $X_i$는 직전 상태 $X_ {i-1}$에만 의존하고, 그 이전 상태들과는 무관하다.
736-
737- > 모든 가능한 sequence tuple들의 결합 확률 분포를 $P_ {X^n}(x^n) = P_ {X_1, \cdots, X_n}(x_1, \dots, x_n)$라고 할 때, 1차 마르코프 과정은 다음을 만족한다.
738- >
739- $> P_ {X^n}(x^n) = \prod_ {i=1}^n P_ {X_i \mid X_ {i-1}}(x_i \mid x_ {i-1})$
740-
741- $$
742- P(X_1, X_2, \dots, X_n) = P(X_1) \times P(X_2 \mid X_1) \times \cdots \times P(X_n \mid X_{n-1})
743- $$
744-
745- 1차 마르코프 과정이므로,
746- $$
747- P(X_i \mid X_{i-1}, X_{i-2}, \dots, X_1) = P(X_i \mid X_{i-1})
748- $$
749- 위 식을 바꾸어 쓰면,
750- $$
751- P(X_1, X_2, \dots, X_n) = P(X_1) \prod_{i=2}^n P(X_i \mid X_{i-1})
752- $$
753- 상태 공간이 $\{ 1, \dots, n\} $이고 전이 확률이 동일하다고 가정하면, 전이 행렬 $P$를 정의할 수 있다.
754-
755- $$
756- P_{u,v} = \Pr[X_i = u \mid X_{i-1} = v]
757- $$
758-
759- 그리고 $t$시점 상태 분포 벡터를
760- $$
761- \pi_t = \begin{bmatrix}
762- \Pr[X_t = 1] \\
763- \Pr[X_t = 2] \\
764- \vdots \\
765- \Pr[X_t = n]
766- \end{bmatrix}
767- $$
768-
769- 라고 하면, 각 상태 u에 대해 다음 식이 성립한다.
770-
771- $$
772- \Pr[X_t = u] = \sum_{v=1}^n \Pr[X_t = u \mid X_{t-1} = v] \Pr[X_{t-1} = v] = \sum_{v=1}^n P_{u,v} \pi_{t-1,v}
773- $$
774-
775- 이를 벡터 형태로 변환하면
776-
777- $$
778- \pi_t = P \times \pi_{t-1}
779- $$
780-
781- ---
782-
783- > ** Exercise 43.**
784-
785- 이진확률과정 $X$를 고려해보자. 전이 확률이 다음과 같이 주어진다.
786-
787- $$
788- P_{X_i \mid X_{i-1}}(0 \mid 1) = P_{X_i \mid X_{i-1}}(1 \mid 0) = \alpha < \frac{1}{2}
789- $$
790-
791- $$
792- P_{X_i \mid X_{i-1}}(1 \mid 0) = P_{X_i \mid X_{i-1}}(0 \mid 1) = 1 - \alpha
793- $$
794-
795- 이때, 전이 행렬 $P$는 다음과 같이 정의할 수 있다
796-
797- $$
798- P = \begin{bmatrix}
799- 1 - \alpha & \alpha \\
800- \alpha & 1 - \alpha
801- \end{bmatrix} \quad (115)
802- $$
803-
804- 초기 상태 분포를 다음과 같이 정의하면,
805-
806- $$
807- \pi_0 = [1, 0]
808- $$
809-
810- 다음 단계 상태 분포 $\pi_1$은 다음과 같다.
811- $$
812- \pi_1 = [1 - \alpha, \alpha]
813- $$
814-
815730### 2.5.3 kth Order Markov Process
816731
817732확률 과정 X에 대해,
@@ -1039,3 +954,71 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
1039954
1040955### 2.6.6 Maximum Differential Entropy
1041956
957+ > ** 이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.**
958+ >
959+ > 이산 확률 변수 $X \in \{ 1, 2, \dots, K\} $의 엔트로피는 다음 부등식을 만족한다.
960+ > $H(X) \leq \log_2 K$
961+ >
962+ > 등호는 균등 분포일 때 성립한다.
963+
964+
965+ > 2차 모멘트 제약 조건
966+
967+ 확률 변수 $X$가 다음을 만족한다고 가정한다.
968+
969+ $$
970+ \mathbb{E}[X^2] \leq P
971+ $$
972+
973+ 이 조건 하에서, 미분 엔트로피가 최대가 되는 분포는 무엇인가?
974+
975+ ---
976+
977+ ** 정리65. 가우시안 분포가 최대 미분 엔트로피를 가진다.**
978+
979+ * proof.*
980+
981+ $X$의 확률 밀도 함수를 $f_X$,
982+ 평균 0, 분산 $P$인 가우시안 확률 변수 $X' \sim \mathcal{N}(0, P)$의 pdf를
983+
984+ $$
985+ g(x) = \frac{1}{\sqrt{2 \pi P}} \exp\left(-\frac{x^2}{2P}\right)
986+ $$
987+
988+ 라고 하자.
989+
990+
991+ KL 발산의 정의에 의해,
992+
993+ $$
994+ D(f \| g) = \mathbb{E}_f \left[\log \frac{f_X(X)}{g(X)}\right]
995+ $$
996+
997+ $$
998+ D(f \| g) = \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] - \mathbb{E}_f \left[\log \frac{1}{f_X(X)}\right] = \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] - h(f_X)
999+ $$
1000+
1001+ 여기서 $h(f_X)$는 확률 변수 $X \sim f_X$의 미분 엔트로피이다.
1002+
1003+ $$
1004+ \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] = \log \sqrt{2 \pi P} + \frac{\mathbb{E}_f [X^2]}{2P}
1005+ $$
1006+
1007+ 그리고 $\mathbb{E}_ f[ X^2] = \mathbb{E}_ g[ X^2] = P$이므로,
1008+
1009+ $$
1010+ \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] = \log \sqrt{2 \pi P} + \frac{P}{2P} = \log \sqrt{2 \pi P} + \frac{1}{2} = h(g)
1011+ $$
1012+
1013+
1014+ $$
1015+ D(f \| g) = h(g) - h(f_X) \geq 0
1016+ $$
1017+
1018+ $D(f \| g)$은 K-L Divergence이므로 항상 0 이상이다.
1019+
1020+ $$
1021+ h(g) \geq h(f_X)
1022+ $$
1023+
1024+ $\therefore$ 2차 모멘트 제약 조건 하에서 가우시안 분포가 최대 미분 엔트로피를 가진다.
0 commit comments