0%

信息论与编码2

联合熵、条件熵、熵

\[ H(X, Y) = H(X) + H (Y|X)\]

proof:

\[ \begin{aligned} H(X,Y) &= -\sum_{x,y} p(x,y)\,\log p(x,y) \\ &= -\sum_{x,y} p(x,y)\,\log\!\big(p(x)\,p(y\mid x)\big) \\ &= -\sum_{x,y} p(x,y)\,\log p(x) \;-\; \sum_{x,y} p(x,y)\,\log p(y\mid x) \\ &= -\sum_{x} \Big(\sum_y p(x,y)\Big)\log p(x) \;-\; \sum_x p(x)\sum_y p(y\mid x)\,\log p(y\mid x) \\ &= -\sum_x p(x)\log p(x) \;+\; \sum_x p(x)\,\Big(-\sum_y p(y\mid x)\log p(y\mid x)\Big) \\ &= H(X) \;+\; \sum_x p(x)\,H(Y\mid X{=}x) \\ &= H(X)+H(Y\mid X). \end{aligned} \]

记忆信源与无记忆信源

  • 记忆信源:符号出现的概率与之前出现过的符号有关

  • 无记忆信源:符号出现的概率与之前出现过符号的概率无关,只由符号自身的概率决定

tips: 离散信源的输出是一个符号表{x1, x2, x3…}

二重信源

def: 把原信源连续的两个符号当成一个新符号来看的那个新信源

马尔科夫信源

def: 即有记忆的离散信源

k阶马尔科夫信源:当前输出符号与前k个符号有关

状态转移

类似于FSM(有限状态机)。 wiki about FSM

马尔科夫信源熵

  • 从一个状态到另一个状态发生转移并发出一个符号的熵

  • 信源平均输出一个符号的熵(每个状态的熵的均值)

冗余度

def: \[ R = 1 - \frac{H(x)}{H_{max}}\]

这里的 \(\frac{H(x)}{H_{max}}\) 也叫信源效率

该值越大说明符号之间的相关性越强,

时间熵

def:平均每秒传递的信息量 (bit/s)

formular:

\[ H_t = H(X) / E(T) \]

其中\(E(T)\)为发送一个符号的平均时间,\(H(X)\)为信源熵即一个符号带有的信息量

编码

def: 为信源发出的每个符号进行编码

香农编码

如何进行香农编码:

哈夫曼编码

如何进行哈夫曼编码: wiki about Huffman

编码速率和编码效率

def: 编码速率即平均码长(bit/符号)

\[\bar L = \sum_{i=1}^{\infty} p_i\,l_i\]

def: 编码效率即信源熵/平均码长

\[\eta = \frac{H(X)}{\bar{L}}\]

重要关系

  • \(H(X) \leq \bar L\)

即信源熵是平均码长的下界,信源熵是一个信源发出一个符号带来的平均不确定度/信息量(需要多少bit去表示这个符号的发生),而平均码长就是该编码表示一个符号的平均bits,当二者越接近说明这种编码方式的效率越高.

离散信道容量

Reveiw:

互信息(Mutual Information):是一个衡量“知道一个变量能减少另一个变量多少不确定性”的量,或者说二者共享的信息量

数学定义为:\(I(X;Y) = H(X) - H(X|Y)\)

信道容量

目标 意义
想看输出反映输入多少 \(I(X;Y)\) 输入输出共享信息量
想找信道能力上限 \(\max_{p(x)} I(X;Y)\) 最优输入分布下的最大共享信息量

数学定义:

\[C =\max_{p(x)} I(X;Y)\]

当信道矩阵(转移概率矩阵)对称时有:

\[C = log_{2}M - H(Y|X)\]

理想观测器

什么是理想观测器(摘自ChatGPT5)

即根据条件概率选择当观测到某个y时,它的输入为x。

误判概率

设计的理想观测器的误判概率

Question

  1. 几何级数和几何级数求导求和?