Skip to content

Commit 78bbb2f

Browse files
authored
Merge pull request #16 from jungin7612/feature/6.6
Feature/6.6
2 parents 382fb80 + 122b6ca commit 78bbb2f

1 file changed

Lines changed: 68 additions & 85 deletions

File tree

_posts/2025-08-04-02.Information-Theory.md

Lines changed: 68 additions & 85 deletions
Original file line numberDiff line numberDiff line change
@@ -727,91 +727,6 @@ i.i.d. ←────────────|───────────
727727

728728
### 2.5.2 1st Order Markov Process
729729

730-
> **1차 마르코프 과정이란?**
731-
732-
확률 과정 $X$ = $\{X_1, X_2, \dots, X_n\}$이 있다고 할 때,
733-
$P(X_i \mid X_{i-1}, X_{i-2}, \dots, X_1) = P(X_i \mid X_{i-1})$를 만족하는 과정을 1차 마르코프 과정이라고 한다.
734-
735-
$\therefore$ 현재 상태 $X_i$는 직전 상태 $X_{i-1}$에만 의존하고, 그 이전 상태들과는 무관하다.
736-
737-
>모든 가능한 sequence tuple들의 결합 확률 분포를 $P_{X^n}(x^n) = P_{X_1, \cdots, X_n}(x_1, \dots, x_n)$라고 할 때, 1차 마르코프 과정은 다음을 만족한다.
738-
>
739-
$>P_{X^n}(x^n) = \prod_{i=1}^n P_{X_i \mid X_{i-1}}(x_i \mid x_{i-1})$
740-
741-
$$
742-
P(X_1, X_2, \dots, X_n) = P(X_1) \times P(X_2 \mid X_1) \times \cdots \times P(X_n \mid X_{n-1})
743-
$$
744-
745-
1차 마르코프 과정이므로,
746-
$$
747-
P(X_i \mid X_{i-1}, X_{i-2}, \dots, X_1) = P(X_i \mid X_{i-1})
748-
$$
749-
위 식을 바꾸어 쓰면,
750-
$$
751-
P(X_1, X_2, \dots, X_n) = P(X_1) \prod_{i=2}^n P(X_i \mid X_{i-1})
752-
$$
753-
상태 공간이 $\{1, \dots, n\}$이고 전이 확률이 동일하다고 가정하면, 전이 행렬 $P$를 정의할 수 있다.
754-
755-
$$
756-
P_{u,v} = \Pr[X_i = u \mid X_{i-1} = v]
757-
$$
758-
759-
그리고 $t$시점 상태 분포 벡터를
760-
$$
761-
\pi_t = \begin{bmatrix}
762-
\Pr[X_t = 1] \\
763-
\Pr[X_t = 2] \\
764-
\vdots \\
765-
\Pr[X_t = n]
766-
\end{bmatrix}
767-
$$
768-
769-
라고 하면, 각 상태 u에 대해 다음 식이 성립한다.
770-
771-
$$
772-
\Pr[X_t = u] = \sum_{v=1}^n \Pr[X_t = u \mid X_{t-1} = v] \Pr[X_{t-1} = v] = \sum_{v=1}^n P_{u,v} \pi_{t-1,v}
773-
$$
774-
775-
이를 벡터 형태로 변환하면
776-
777-
$$
778-
\pi_t = P \times \pi_{t-1}
779-
$$
780-
781-
---
782-
783-
> **Exercise 43.**
784-
785-
이진확률과정 $X$를 고려해보자. 전이 확률이 다음과 같이 주어진다.
786-
787-
$$
788-
P_{X_i \mid X_{i-1}}(0 \mid 1) = P_{X_i \mid X_{i-1}}(1 \mid 0) = \alpha < \frac{1}{2}
789-
$$
790-
791-
$$
792-
P_{X_i \mid X_{i-1}}(1 \mid 0) = P_{X_i \mid X_{i-1}}(0 \mid 1) = 1 - \alpha
793-
$$
794-
795-
이때, 전이 행렬 $P$는 다음과 같이 정의할 수 있다
796-
797-
$$
798-
P = \begin{bmatrix}
799-
1 - \alpha & \alpha \\
800-
\alpha & 1 - \alpha
801-
\end{bmatrix} \quad (115)
802-
$$
803-
804-
초기 상태 분포를 다음과 같이 정의하면,
805-
806-
$$
807-
\pi_0 = [1, 0]
808-
$$
809-
810-
다음 단계 상태 분포 $\pi_1$은 다음과 같다.
811-
$$
812-
\pi_1 = [1 - \alpha, \alpha]
813-
$$
814-
815730
### 2.5.3 kth Order Markov Process
816731

817732
확률 과정 X에 대해,
@@ -1039,3 +954,71 @@ $\Delta$가 작아질수록 $H(X^\Delta)$는 더 커지는데, 이는 $\Delta$
1039954

1040955
### 2.6.6 Maximum Differential Entropy
1041956

957+
> **이산 변수에서 최대 엔트로피는 균등 분포에서 달성된다.**
958+
>
959+
> 이산 확률 변수 $X \in \{1, 2, \dots, K\}$의 엔트로피는 다음 부등식을 만족한다.
960+
> $H(X) \leq \log_2 K$
961+
>
962+
>등호는 균등 분포일 때 성립한다.
963+
964+
965+
> 2차 모멘트 제약 조건
966+
967+
확률 변수 $X$가 다음을 만족한다고 가정한다.
968+
969+
$$
970+
\mathbb{E}[X^2] \leq P
971+
$$
972+
973+
이 조건 하에서, 미분 엔트로피가 최대가 되는 분포는 무엇인가?
974+
975+
---
976+
977+
**정리65. 가우시안 분포가 최대 미분 엔트로피를 가진다.**
978+
979+
*proof.*
980+
981+
$X$의 확률 밀도 함수를 $f_X$,
982+
평균 0, 분산 $P$인 가우시안 확률 변수 $X' \sim \mathcal{N}(0, P)$의 pdf를
983+
984+
$$
985+
g(x) = \frac{1}{\sqrt{2 \pi P}} \exp\left(-\frac{x^2}{2P}\right)
986+
$$
987+
988+
라고 하자.
989+
990+
991+
KL 발산의 정의에 의해,
992+
993+
$$
994+
D(f \| g) = \mathbb{E}_f \left[\log \frac{f_X(X)}{g(X)}\right]
995+
$$
996+
997+
$$
998+
D(f \| g) = \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] - \mathbb{E}_f \left[\log \frac{1}{f_X(X)}\right] = \mathbb{E}_f \left[\log \frac{1}{g(X)}\right] - h(f_X)
999+
$$
1000+
1001+
여기서 $h(f_X)$는 확률 변수 $X \sim f_X$의 미분 엔트로피이다.
1002+
1003+
$$
1004+
\mathbb{E}_f \left[\log \frac{1}{g(X)}\right] = \log \sqrt{2 \pi P} + \frac{\mathbb{E}_f [X^2]}{2P}
1005+
$$
1006+
1007+
그리고 $\mathbb{E}_f[X^2] = \mathbb{E}_g[X^2] = P$이므로,
1008+
1009+
$$
1010+
\mathbb{E}_f \left[\log \frac{1}{g(X)}\right] = \log \sqrt{2 \pi P} + \frac{P}{2P} = \log \sqrt{2 \pi P} + \frac{1}{2} = h(g)
1011+
$$
1012+
1013+
1014+
$$
1015+
D(f \| g) = h(g) - h(f_X) \geq 0
1016+
$$
1017+
1018+
$D(f \| g)$은 K-L Divergence이므로 항상 0 이상이다.
1019+
1020+
$$
1021+
h(g) \geq h(f_X)
1022+
$$
1023+
1024+
$\therefore$ 2차 모멘트 제약 조건 하에서 가우시안 분포가 최대 미분 엔트로피를 가진다.

0 commit comments

Comments
 (0)