信源熵(平均不确定度):Hs=−i=1∑npilogdpi
条件熵(已知 X,关于 Y):H(X∣Y)=−i,j∑p(xi,yj)logp(xi∣yj)=−i,j∑p(xi,yj)logp(yj)p(xi,yj)
联合熵(X 和 Y 同时发生):H(X∣Y)=−i,j∑p(xi,yj)logp(xi,yj)
H(X,Y)=H(X)+H(Y∣X)=H(Y)+H(X∣Y)
互信息代表随机变量彼此之间的相关性。
I(X;Y)=y∈Y∑x∈X∑p(x,y)log(p(x)p(y)p(x,y)),
关于熵和互信息之间的关系只需要记下这张图:
- 信源:H(X)
- 信道:H(Y)
- 信道中损失的信息量(疑义度):H(X|Y)
- 噪声熵:H(Y|X)
- 接收端获得的信息量:I(X;Y)
信道容量: C=maxp(x)I(X;Y),一般可以拿 I(X;Y) 来变形
单位时间信道容量:Ct=C/t
BSC 信道(二进制对称 DMC 信道):C=1−H(ε) bit (ε 为转移概率)
二元擦除信道(两个输入的擦除是改到同一个值):C=1−a bit (a 为擦除概率)
定义如果信道转移矩阵的任何两行互相置换,任何两列也互相置换,那么称该信道是对称的。如果转移矩阵的每一行都是其他每行的置换,而所有列的元素 sum 相等,则称这个信道是弱对称的。
对于弱对称信道,C=log (Y 的取值个数) - H(转移矩阵的一行)
和信道:指在任一单位时间内随机地选用任一个而不能同时选用多个的信道。和信道中 C=log(∑2Ci)
(M, n) 码指的是 X 的 (码本长度,序列长度)。
- 定长编码
- 无失真:R>H(X)
- 输出信息率(码率):R=logm⋅ (编码后长度/编码前长度),其中 m 为进制数
- 编码效率 η=RH(X)
信道编码定理:对于离散无记忆信道,小于信道容量 C 的所有码率都是可达的。
- Haffman 编码:构建 Haffman Tree 即可,非常简单。每次取两个最小的节点组成新的子树。约定每次概率较大的分配 0,较小的分配 1。
- 算术编码:直接把整个输入的消息编码为一个数
- 先对输入符号的概率进行估计
- 按照估计概率之比,对 0-1 的区间进行切分
- 每次取实际信息的一个符号,在符号对应的区间继续按照相同的比例切分
- 切分全部结束后,任取最终区间内的一点即为编码结果。最终可以将此小数转为整数;也可以转为二进制。
连续变量的熵 h(X)=−∫Sf(x)logf(x)dx
正态分布熵:h(N(μ,σ2))=21log(2πeσ2) bits
一般功率要求 n1∑xi2≤P
高斯信道:Zi∼N(0,N)
EX2=P,EY2=N
h(Y)≤21log2πe(P+N)
h(Z)=21log2πeN
C=21log(1+NP),最大值在 X∼N(0,P)
并联高斯信道容量 = sum