信息论与编码备忘

本文最后更新于 2023年3月3日 下午

信息论真的很神奇,这部分备忘主要涉及信源编码和信道传输

信息论与编码

引论

信息论的基本概念

  • 信息论:一门应用概率论和数理统计的方法研究概率信息的传输、存储和处理的学科
graph LR
A[信源]-->|消息|B[编码器]
B-->|信号|C[信道]
C-->|信号|D[译码器]
D-->|消息|E[信宿]
F[干扰源]-->|干扰|C
  • 信息

    • 通俗的信息:信息是一种消息

    • 广义的信息:信息表征客体变化、客体之间的差异和关系;信息表征客体的行为和能力,而不是客体本身

    • 概率信息:又称香农信息、狭义信息,从事件的不确定性概率测度出发定义信息

  • 信息、消息和信号

    • 信息:抽象,包含在消息中
    • 消息:具体,但不是物理的,可以包含多个信息
      • 构成条件:能被通信双方理解;可以传递
    • 信号:消息的载荷者

信源编码:唯一可译码

信源的数学模型

  • (离散)信源:信源每隔一个定长时间段就发出一个随机变量;随着时间的延续,信源发出的是随机变量序列 X1,X2,X3,X_1,X_2,X_3,\dots

    • 假设每个 XnX_n 都是一个取值在有限集合 S={s1,s2,s3,}S=\{s_1,s_2,s_3,\dots\} 上的离散型随机变量

      • SS 称为信源字母表
    • 实际中认为信源序列有限,但是出于理论证明的目的,也会考虑无限长序列

    • 分类

      • 离散无记忆信源:随机变量 X1,X2,X3,X_1,X_2,X_3,\dots 彼此统计独立
      • 离散无记忆简单信源(教程主要信源):随机变量 X1,X2,X3,X_1,X_2,X_3,\dots 具有相同的概率分布

信源编码

  • r-元编码

    • 假设每个 XnX_n 都是一个取值在信源字母表 S={s1,s2,s3,,sq}S=\{s_1,s_2,s_3,\dots,s_q\} 上的离散型随机变量
    • 设有一个含 rr 字母的字母表 T={t1,t2,t3,tr}T=\{t_1,t_2,t_3,\dots\,t_r\}, 对于 (X1,X2,X3,)(X_1,X_2,X_3,\dots) 的每一个事件,都用一个字母串来表示,这种表示方法称为 r-元编码;
    • e.g:r=2,ASCII;r=3,Morse code
  • 字:TT 中的一个字 ww 是由 TT 中字母组成的有限序列,字的长度即为序列中字母的个数

    • Tn=T×T×T××TT^n=T\times T\times T\times \dots\times T:长度为 nn 的字的集合
    • ε\varepsilon:长度为 0 的空字
    • T=n0TnT^*=\bigcup_{n\ge0}T^n:所有字(包括空字)的集合
    • T+=n>0TnT^+=\bigcup_{n> 0}T^n:所有非空字的集合
  • 信源编码:C:ST+C:S\rightarrow T^+,简记 C={ω1,ω2,,ωq}C=\{\omega_1,\omega_2,\dots,\omega_q\}

  • 信源序列编码:C:STC^*:S^*\rightarrow T^*,简记 C={ωi1,ωi2,,ωinTωijC,n0}C^*=\{\omega_{i1},\omega_{i2},\dots,\omega_{in}\in T^*|\omega_{ij}\in C,n\ge0\}

  • 平均码字长度:设信源随机变量 XX 的概率分布为 {ak,p(ak),k=1,,K}\{a_k,p(a_k),k=1,\cdots ,K\} ,事件 aka_k 对应的码字长度为 lkl_k,则平均码字长度为 L(C)=k=1Kp(ak)lk=k=1KpklkL(C)=\sum^K_{k=1}p(a_k)l_k=\sum^K_{k=1}p_kl_k

    • 信源编码的主要目的在于易于实现码字的平均长度最短
  • 唯一可译性:对于一个码,如果存在一种译码方法,使任意若干个码字所组成的字母串只能唯一地被翻译成这几个码字所对应的事件序列

唯一可译码

  • 定义

  • C:STC: S^*\rightarrow T^* 是唯一可译码,若对 tT\forall t \in T^*,至多存在一个 sSs \in S^* 与之对应。换言之,C:STC:S^*\rightarrow T^* 是一对一的。

  • 性质

    • C:STC: S^*\rightarrow T^* 是唯一可译码,若有 u1um=v1vnu_1\cdots u_m=v_1\cdots v_n,其中 ui,vjCu_i,v_j\in C,则有 m=nm=n,且 ui=viu_i=v_i
      • 即:每个码字序列可以被唯一分解
  • 定理

  • CC 中的每个码字具有相同的长度,则 CC 是一个唯一可译码

  • 证明

    • 定义 C0C1,,C_{0} C_{1},\cdots, 为非空字集合 (即 CnT+C_{n} \subseteq T^{+});

      特别地 ,, 定义 C0=C,C_{0}=C,Cn={ωTuω=v,C_{n}=\left\{\omega \in T^{*} \mid u \omega=v,\right. 其中 uC,vCn1u \in C, v \in C_{n-1}uCn1,vC},n1\left.u \in C_{n-1}, v \in C\right\}, n \geq 1

      C=n=1CnC1={ωT+uω=v,C_{\infty}=\bigcup_{n=1}^{\infty} C_{n} \quad \quad \quad C_{1}=\left\{\omega \in T^{+} \mid u \omega=v,\right. 其中 uvC}\left.u v \in C\right\}

    • 一个码C为唯一可译码的充分必要条件是 C\cap C_\infin=\O

即时码

  • 延时译码:等到序列全部接收完毕后才能开始译码

  • 即时码:若对每个码字序列 wi1,wi2,winw_{i_{1}}, w_{i_{2},} \cdots w_{i_{n}},每个以 wi1,wi2,winw_{i_{1}}, w_{i_{2},} \cdots w_{i_{n}} 开头的码字序列 tt
    唯一地被译为 s=si1si2sins=s_{i_1}s_{i_2} ⋯ s_{i_n} ⋯,无论 tt 中后续字母是什么。该码称为即时码。

  • 前缀码:若每个码字 wiw_i 都不是其他码字 wjw_j ,的前缀,即 wjwiw,wϵT,w_{j} \neq w_{i} w, w \epsilon T^{*}, 等价地, C1=C_{1}=\emptyset

  • 一个码 CC 为即时码的充分必要条件是 CC 为前缀码

唯一可译性的两种解决方法

  • 逗点码
    1. 事件与码字一一对应;
    2. 每个码字的开头部分都是一个相同的字母串;
    3. 这个字母串仅仅出现在码字的开头,不出现在码字的其它部位,也不出现
      在两个码字的结合部。
  • 即时码
    1. 事件与码字一一对应;
    2. 每个码字都不是另一个码字的开头部分(字头)

信源编码的分类

graph TD
A(码)-->B1(奇异码)
A-->B2(非奇异码)
 B2-->C2(非唯一可译码)
 B2-->C1(唯一可译码)
  C1-->D1(等长码)
     C1-->D2(变长码)
   D2-->E1(前缀码)
   D2-->E2(逗点码)

即时码的构造

码树

  1. 一个码 CC 可以看做是树 TT^* 中一些顶点的有限集合
  2. 一个码字 wiw_{\mathrm{i}}wjw_{\mathrm{j}} 的前缀当目仅当存在一条从 wiw_{\mathrm{i}}wjw_{\mathrm{j}} 的向上的路( wiw_{\mathrm{i}}wjw_{\mathrm{j}} 支配 ))
  3. 一个码 CC 是即时码当目仅当对每个码字 wiw_{\mathrm{i}} 都不受其他码字 wj(ij)w_{j}(i \neq j ) 支配

Kraft 不等式

  • 定理 : 设信源消息集合为 S={s1,s2,,sq},S=\left\{s_{1}, s_{2}, \ldots, s_{q}\right\}, 信道基本符号的种类为 r,r, 码字集合为 C={w1,w2,,wq},C=\left\{w_{1}, w_{2}, \ldots, w_{q}\right\}, 对应的码长集合为 b={l1,l2,,lq},b=\left\{l_{1}, l_{2}, \ldots, l_{q}\right\},存在即时码的充分必要条件是:rrqq 和码长 lil_{i} 应满足如下不等式

i=1qrli1\sum_{i=1}^{q} r^{-l_{i}} \leq 1

​ 上式称为 Kraft 不等式

※:Kraft不等式只涉及即时码的存在性问题,可以用来判断一组码不是即时码,而不能判断一组码是即时码

McMillan’s不等式

  • 定理:任意唯一可译码的长度必然满足Kraft不等式
    • 说明:从码字长度集合的角来考虑 ,唯一可译码不能提供比即时码更优的选择 。对唯一可译码和即时码而言 ,其码字长度集合的可行条件是一样的
    • 所以目标是:构造平均长度最小的即时码

即时码的最小期望长度问题

  • 即时码的最小期望长度问题是一个最优化问题 :

    在所有整数 l1,l2,,lql_{1}, l_{2}, \ldots, l_{q} 上,最优化

L(C)=i=1NpiliL(\mathcal{C})=\sum_{i=1}^{N} p_{i} l_{i}

​ 其约束条件为 i=1qrli1\sum_{i=1}^{q} r^{-l_{i}} \leq \mathbf{1}

  • 方法:取消对整数的限制 ,利用 Lagrange 乘子法
  • 从理论推导可知:最佳码长原则满足:大概率对应短码长,小概率对应长码长

Huffman编码

最优码

  • 最优码:给定信道的符号个数 rr 以及概率分布 pip_i,期望码长最小的即时码

    • 交换性质:若 pj<pkp_j<p_k,则 lj>lkl_j>l_k
  • 对任意信源 𝑆,总存在 rr 元最优码 (r2r\ge2

二元 Huffman 编码

  • 原理

    1. 对信源 SS 的信源符号 s1,s2,,sqs_{1}, s_{2}, \cdots, s_{q} 重新编号,使其对应的概率满足 p1p2pq(p_{1} \geq p_{2} \geq \cdots \geq p_{q}( 从大到小的顺序柳列 ))
    2. 将两个概率最小的信源符号 sq1s_{q-1} 和s q_{q} 合并成一个新符号s’,并用这两个最小的概率之和作为新符号 ss' 的概率 pp',得到一个只包含 q1q-1 个信源符号的新信源称为原信源的缩减信源,用 SS' 表示
    3. 设信源 SS' 的二元码为 CC',则可构造信源 SS 的二元码 CC
  • 算法

    • 进行霍夫曼编码前,我们先创建一个霍夫曼树。
      1. 将每个字符依照出现频率由小排到大,最小在左
      2. 每个字符都代表一个叶节点,比较每个字符的出现频率,将最小的两个字符频率相加合成一个新的节点。将新的节点替代这两个最小字母频率节点加入到叶节点中,再重复上述操作。
    1. 最后产生的树状图就是霍夫曼树。
    • 进行编码
      1. 给霍夫曼树的所有左链接 ‘0’ 与右链接 ‘1’ 。
      2. 从树根至树叶依序记录所有字母的编码。
  • Huffman 编码并不唯一,但是平均码长是相同的

    • 在Huffman编码过程中,对缩减信源符号按概率由大到小的顺序重新排列时,应使合并后的新符号尽可能排在靠前的位置,这样可使合并后的新符号重复编码次数减少,使短码得到充分利用
  • 对于特定的最优码,概率方差越大,平均码长通常会变小

二元 Huffman 编码的平均码长

  • 将信源 SS 缩减为 S(q1)S^{(q-1)} 时产生的 “新”概率之和 p+p++p(q1)p'+p''+\cdots+p^{(q-1)} 即 为编码 CC 的平均码长

二元 Huffman 编码的最优性

  • 对于任意信源 SS,若 CC 是与之对应的二元 Huffman 编码,则 CC 是信源 SS 的最优码

信息量

非平均互信息量

输入、输出空间定义

  • 输入空间 X={xk,k=1,2,,K}X=\left\{x_{k}, k=1,2, \ldots, K\right\},概率记为 Q(xk)Q\left(x_{k}\right),称为先验概率
  • 输出空间Y ={yj,j=1,2,,J}=\left\{y_{j}, j=1,2, \ldots, J\right\},概率记为 Ω(yj)\Omega\left(y_{j}\right)
  • 联合空间 XY={xkyj;k=1,2,,K;j=1,2,,J}\mathrm{XY}=\left\{x_{k} y_{j} ; k=1,2, \ldots, K ; j=1,2, \ldots, J\right\},概率为 P(xkyj)P\left(x_{k} y_{j}\right)

P(xkyj)=P(xkyj)Ω(yj)=P(yjxk)Q(xk)P\left(x_{k} y_{j}\right)=P\left(x_{k} \mid y_{j}\right) \Omega\left(y_{j}\right)=P\left(y_{j} \mid x_{k}\right) Q\left(x_{k}\right)

  • P(xkyj)P(x_k|y_j) 称为后验概率

非平均互信息量认识

  • 先验概率越大 ,得到的信息量越小 ,反之信息量越大

  • 在一个系统中我们所关心的输入是哪个消息的问题 ,只与事件出现的先验概率和经过观察后事件出现的后验概率有关

  • 非平均互信息量:给定一个二维离散型随机变量

    {(X,Y),(xk,yj),P(xk,yj),k=1K;j=1J}\left\{(X, Y),\left(x_{k}, y_{j}\right), P\left(x_{k}, y_{j}\right), k=1 \sim K ; j=1 \sim J\right\}

    因此就给定了两个离散型随机变量 {X,xk,Qk,k=1K}\left\{X, x_{k}, Q_{k}, k=1 \sim K\right\}{Y,yj,Ωj,j=1J}\left\{Y, y_{j}, \Omega_{j}, j=1 \sim J\right\}
    事件 xkXx_{k} \in X 与事件 yjYy_{j} \in Y 的互信息量定义为 I(xk;yj)I\left(x_{k} ; y_{j}\right)

I(xk;yj)=logaP(xkyj)Q(xk)=logaP(yjxk)Ω(yj)=I(yj;xk)\begin{aligned} I\left(x_{k} ; y_{j}\right) &=\log _{a} \frac{P\left(x_{k} \mid y_{j}\right)}{Q\left(x_{k}\right)} \\ &=\log _{a} \frac{P\left(y_{j} \mid x_{k}\right)}{\Omega\left(y_{j}\right)}=I\left(y_{j} ; x_{k}\right) \end{aligned}

  • 其中底数a是大于1的常数,常用a=2或a=e

    • 当 a=2 时互信息量的单位,为 bit
    • 当 a=e 时互信息量的单位,为 nat
  • 另一种理解:

    I(xi;yj)=I\left(x_{i} ; y_{j}\right)= [收到 yjy_{j},, 收信者对信源发 xix_{i} 的不确定性]-[收到 yjy_{j} 后,收信者对信源发 xix_{i} 仍然存在的不确定性]== 收信者收到 yjy_{j} 前后,收信者对信源发 xix_{i}不确定性的消除

  • 当事件 yjy_{j} 的出现有助于肯定事件 xkx_{k} 的出现,即

    P(xkyj)>Q(xk), 则 I(xk;yj)>0P\left(x_{k} \mid y_{j}\right)>Q\left(x_{k}\right), \text { 则 } I\left(x_{k} ; y_{j}\right)>0

    当事件 yjy_{j} 的出现告诉我们事件 xkx_{k} 的出现可能性减少 , 即

    P(xkyj)<Q(xk), 则 I(xk;yj)<0P\left(x_{k} \mid y_{j}\right)<Q\left(x_{k}\right), \text { 则 } I\left(x_{k} ; y_{j}\right)<0

  • 三个事件集的条件互信息定义为
    I(u1;u2u3)=logp(u1u2,u3)p(u1u3)=logp(u1,u2u3)p(u1u3)p(u2u3)I\left(u_{1} ; u_{2} \mid u_{3}\right)=\log \frac{p\left(u_{1} \mid u_{2}, u_{3}\right)}{p\left(u_{1} \mid u_{3}\right)}=\log \frac{p\left(u_{1}, u_{2} \mid u_{3}\right)}{p\left(u_{1} \mid u_{3}\right) p\left(u_{2} \mid u_{3}\right)}

  • (u2,u3)\left(u_2, u_{3}\right) 联合给出的关于 u1u_{1} 的信息量等于 u2u_{2} 给出的关于 u1u_{1} 的信息量与 u2u_{2} 已知条件下 u3u_{3} 给出的关于 u1u_{1} 的信息量之和。I(u1;u2,u3)=I(u1;u2)+I(u1;u3u2)=I(u1;u3)+I(u1;u2u3)\begin{aligned} I\left(u_{1} ; u_{2}, u_{3}\right) &=I\left(u_{1} ; u_{2}\right)+I\left(u_{1} ; u_{3} \mid u_{2}\right) \\ &=I\left(u_{1} ; u_{3}\right)+I\left(u_{1} ; u_{2} \mid u_{3}\right) \end{aligned}

非平均自信息量

  • 给定一个离散型随机变量 {X,xk,Qk,k=1K}\left\{X, x_{k}, Q_{k}, k=1 \sim K\right\}
    事件 xkXx_{k} \in X 的自信息量定义为

    I(xk)=loga1QkI\left(x_{k}\right)=\log _{a} \frac{1}{Q_{k}}

    其中底数 aa 是大于 1 的常数。

  • 非平均自信息量的性质:

    1. 非负性:I(xk)0I\left(x_{k}\right) \geq 0
    2. 单调性: QkQ _k 越小,I(xk)I (x_k) 越大
    3. I(xk;yj)min{I(xk),I(yj)}I\left(x_{k} ; y_{j}\right) \leq \min \left\{I\left(x_{k}\right), I\left(y_{j}\right)\right\},即互信息量不超过各自的自信息量。
  • 非平均自信息量 I(xi)I\left(x_{i}\right) 的物理意义

    • 当事件 xix_{i} 发生前,表示该事件发生的不确定性
    • 当事件 xix_{i} 发生后 , 表示该事件所提供的信息量

条件的非平均自信息量

  • 在事件 yjy_{j} 发生的条件下事件 xkx_{k} 的条件自信息量定义

I(xkyj)=loga1P(x=xkY=yj)=logaΩjP(xd,yj)\begin{aligned} I\left(x_{k} \mid y_{j}\right) &=\log _{a} \frac{1}{P\left(x=x_{k} \mid Y=y_{j}\right)} \\ &=\log _{a} \frac{\Omega_{j}}{P\left(x_d, y_{j}\right)} \end{aligned}

  • 性质:I(xkyj)=I(xk)I(xk;yj)I\left(x_k \mid y_j\right)=I\left(x_k\right)-I\left(x_k;y_j\right)

联合的平均自信息量

  • I(xk,yj)=loga1P(xk,yj)I\left(x_{k} ,y_{j}\right)=\log _{a} \frac{1}{P\left(x_{k} ,y_{j}\right)}

  • 性质:

    I(xk,yj)=I(yj)+I(xkyj)=I(xk)+I(yjxk)I(xk,yj)=I(xk)+I(yj)I(xk;yj)\begin{aligned} I\left(x_{k}, y_{j}\right) &=I\left(y_{j}\right)+I\left(x_{k} \mid y_{j}\right) \\ &=I\left(x_{k}\right)+I\left(y_{j} \mid x_{k}\right) \\ I\left(x_{k}, y_{j}\right) &=I\left(x_{k}\right)+I\left(y_{j}\right)-I\left(x_{k} ; y_{j}\right) \end{aligned}

  • 联合的非平均自信息量实际上是非平均自信息量的简单推广 ——将 (X,Y)(X,Y) 看成一维变量

离散集的平均自信息量——熵

  • 熵:H(X)=E[I(x)]=k=1Kp(xk)I(xk)=k=1KQklogaQkH(X)=E[I(x)]=\sum_{k=1}^{K} p(x_k) I(x_k)=-\sum_{k=1}^{K} Q_k log_{a} Q_k
    • a>1a>1
    • 定义 𝟎𝒍𝒐𝒈𝟎=𝟎
    • 信息熵单位与自信息量单位相同:Bit,Nat,Det
    • 表示了 XX 中事件出现的平均不确定性

条件熵、联合熵

  • 条件熵:H(XY)=k=1Kj=1Jp(xk,yj)logp(xkyk)H(X|Y)=-\sum_{k=1}^K\sum_{j=1}^Jp(x_k,y_j)\log{p(x_k|y_k)}

  • 联合熵:H(X,Y)=k=1Kj=1Jp(xk,yj)logp(xk,yk)H(X,Y)=-\sum_{k=1}^K\sum_{j=1}^Jp(x_k,y_j)\log{p(x_k,y_k)}

  • 联合熵条件熵的关系

    1. H(X,Y)=H(X)+H(YX)=H(Y)+H(XY)H(X, Y)=H(X)+H(Y \mid X)=H(Y)+H(X \mid Y)
    2. XXYY 相互独立时,

    H(YX)=H(Y),H(XY)=H(X)H(Y \mid X)=H(Y), H(X \mid Y)=H(X)

    ​ 此时也有 H(X,Y)=H(X)+H(Y)H(X, Y)=H(X)+H(Y)

相对熵

  • 相对熵:两个随机分布之间的距离

    • 两个概率密度函数 p(x)p(x)q(x)q(x) 之间的相对嫡,或 Kullback-Leibler 距离定义为 :

      D(pq)=xXp(x)logp(x)q(x)=Ep(x)logp(x)q(x)\begin{aligned} D(p \| q) &=\sum_{x \in X} p(x) \log \frac{p(x)}{q(x)} \\ &=E_{p(x)} \log \frac{p(x)}{q(x)} \end{aligned}

    • 约定:0log0q=0,plogp0=0\log {\frac{0}{q}=0},p\log {\frac{p}{0}=\infin}

    • D(pq)D(qp)D(p\|q)\neq D(q\|p)

  • 相对熵的意义:量度当真实分布为 pp 而假设分布是 qq 时的无效性

  • 性质:

    1. 相对熵总是非负的 ( 信息散度不等式 )

    D(pq)=xAp(x)logp(x)q(x)=xAp(x)logq(x)p(x)logxAp(x)q(x)p(x)=logxAq(x)logxXq(x)=log1=0\begin{aligned} -D(p \| q)=&-\sum_{x \in A} p(x) \log \frac{p(x)}{q(x)}=\sum_{x \in A} p(x) \log \frac{q(x)}{p(x)} \leq \log \sum_{x \in A} p(x) \frac{q(x)}{p(x)} \\ &=\log \sum_{x \in A} q(x) \leq \log \sum_{x \in X} q(x)=\log 1=0 \end{aligned}

    1. 条件相对熵

    D(p(yx)q(yx))=xp(x)yp(yx)logp(yx)q(yx)=Ep(x,y)logp(YX)q(YX)D(p(y \mid x)|| q(y \mid x))=\sum_{x} p(x) \sum_{y} p(y \mid x) \log \frac{p(y \mid x)}{q(y \mid x)}=E_{p(x, y)} \log \frac{p(Y \mid X)}{q(Y \mid X)}

    1. 链式法则
      D(p(x,y)q(x,y))=D(p(x)q(x))+D(p(yx)q(yx))D(p(x, y) \| q(x, y))=D(p(x) \| q(x))+D(p(y \mid x) \| q(y \mid x))

离散集的平均互信息量

  • I(X;Y)=XYP(XY)I(x;y)=I(Y;X)=D(p(x,y)p(x)p(y))I(X;Y)=\sum_{XY}P(XY)I(x;y)=I(Y;X)=D(p(x,y)\|p(x)p(y))

  • 性质:

    1. I(X;Y)=H(X)H(XY)=H(Y)H(YX)=H(X)+H(Y)H(X,Y)\begin{aligned} I(X ; Y) &=H(X)-H(X \mid Y)=H(Y)-H(Y \mid X) \\ &=H(X)+H(Y)-H(X, Y) \\ \end{aligned}
    2. I(X;X)=H(X)H(XX)=H(X)I(X ; X) =H(X)-H(X \mid X)=H(X)
    3. I(x;y)min{H(X),H(Y)}I(x;y)\leq min\left\{H(X),H(Y)\right\}
  • 熵是随机变量不确定度的量度

    • 条件熵 H(XY)H(X|Y) 是给定 YY 之后 XX 的剩余不确定度的量度
    • 联合熵是 XXYY 一起出现时不确定度的量度
    • 互信息 I(X;Y)I(X;Y) 是给定 YY 之后 XX 不确定性减少的程度
  • 链式法则:

    1. 熵:H(X1,X2,,Xn)=i=1nH(XiXi1,,X1)H\left(X_{1}, X_{2}, \ldots, X_n\right)=\sum_{i=1}^{n} H\left(X_{i} \mid X_{i-1}, \ldots, X_{1}\right)
    2. 互信息:I(X1,X2,,Xn;Y)=i=1nI(Xi;YXi1,,X1)I\left(X_{1}, X_{2}, \ldots, X_n;Y\right)=\sum_{i=1}^{n} I\left(X_{i};Y \mid X_{i-1}, \ldots, X_{1}\right)

熵的宏观理解

  • 熵与事件的具体形式无关,仅取决于其概率分布

  • 熵必定不小于0

  • 如果概率向量中某个分量为 1,说明该事件确定,熵为 0

  • 可忽略性:当 qk0q_{k} \rightarrow 0qkloga(1qk)0q_{k} \log _{a}\left(\frac{1}{q_{k}}\right) \rightarrow 0

  • 极值性:H(x)logakH(x) \leq \log _{a} kq1=q2==qk=1/kq_{1}=q_{2}=\cdots=q_k=1 / k 时,才有

H(X)=logaKH(X)=\log_{a} K

信息不等式

信息不等式

  • 凸函数:f(θα+(1θ)β)θf(α)f(\theta\alpha+(1-\theta)\beta)\leq \theta f(\alpha)
    • 凸函数的线性组合还是凸函数
    • 函数 ff 总是位于任意一条弦下面
    • 凸函数的二阶导数非负(恒正为严格凸函数)
  • 概率矢量:矢量的所有分量和为 1
  • 基础不等式:lnxx1ln x\leq x-1
  • Jensen 不等式
    • ff 是凸函数,X为随机变量 , 则 E[f(X)]f[E(X)]E[f(X)] \geq f[E(X)]
    • ff 是严格凸的,则不等式严格成立 ;; 除非 XX 是个常数 ,,X=EXX=E X 时等号成立
    • ff 是凹函数,则不等式反向
  • 信息散度不等式:D(pq)0D(p\| q)\geq 0,等号成立当且仅当 p(x)=q(x)p(x)=q(x) 恒成立
  • 互信息不等式:I(X;Y)0I(X;Y)\geq 0
    • 所有的 Shannon 信息度量都可以看成 I(X;YZ)I(X;Y\mid Z) 的特例

相对熵,熵,互信息的凸性

  • 最大离散熵定理

    X|X|XX 中的元素数目,则 H(X)logXH(X) \leq \log |X| ,当等概率时等号成立

  • 条件降低熵

    H(XY)H(X)H(X \mid Y) \leq H(X)XXYY 独立时等号成立

    ※:条件作用使熵减小仅在平均意义下成立,某个特定的 H(XY=y)H(X\mid Y=y) 可能比 H(X)H(X)

  • 对数和不等式
    对非负数 a1,a2,,ana_{1}, a_{2}, \ldots, a_{n}b1,b2,,bn,b_{1}, b_{2}, \ldots, b_{n},

    i=1nailogaibi(i=1nai)logi=1naii=1nbi\sum_{i=1}^{n} a_{i} \log \frac{a_{i}}{b_{i}} \geq\left(\sum_{i=1}^{n} a_{i}\right) \log \frac{\sum_{i=1}^{n} a_{i}}{\sum_{i=1}^{n} b_{i}}

    当且仅当 aibi\frac{a_{i}}{b_{i}} 为常数时等号成立

    • 应用:D(pq)D(p \| q)(p,q)(p, q) 的凸函数
  • 马尔科夫链:P(X,Y,Z)=P(X)P(YX)P(ZY)P(X,Y,Z)=P(X)P(Y\mid X)P(Z|Y)

  • 数据处理不等式:若存在马尔科夫链 XYZX\rightarrow Y\rightarrow Z,则 I(X;Y)I(X;Z)I(X;Y)\geq I(X;Z)

  • 找不到一个对 YY 进行确定性或随机的处理过程 ,使得 YY 包含 XX 的信息量增加

  • Fano 不等式

    设已知随机变量 YY, 需要估计和 YY 相关的随机变量X的值,Fano不等式将猜测随机变量 XX错误概率与条件熵 H(XY)H(X \mid Y) 联系起来

    • Pe=Pr{X^X}=0P_{e}=\operatorname{Pr}\{\widehat{X} \neq X\}=0 当且仅当 H(XY)=0H(X \mid Y)=0
    • 不等式:H(Pe)+Pelog(X1)H(XY)H(P_e)+P_e \log (|X|-1) \geq H(X|Y)
    • 减弱形式:1+PelogXH(XY)1+P_{e} \log |X| \geq H(X|Y)PeH(XY)1logXP_{e} \geq \frac{H(X\mid Y)-1}{\log |X|}
  • 互信息量的凹凸性

    1. p(yx)p(y \mid x) 给定 ,,I(X;Y)I(X ; Y) 是关于 p(x)p(x) 的凹函数
    2. p(x)p(x) 给定 ,,I(X;Y)I(X ; Y) 是关于 p(yx)p(y \mid x) 的凸函数

渐进均分性

渐进均分性定理

  • 弱大数定律:设 X={x1,x2,,xn,}X=\left\{x_{1}, x_{2}, \ldots, x_{n}, \ldots\right\} 为相互独立的随机变量序列
    并服从相同的分布,且有有限数学期望 EXi=a,E X_{i}=a,1ni=0n1Xi\frac{1}{n} \sum_{i=0}^{n-1} X_{i} 以概 率收敛到 aa

  • 渐进均分性定理 (AEP : Asymptotic Equipartition Property):
    "几乎所有的事件都等概率出现"
    对无记忆独立同分布信源 {Xk,k1}\left\{X_{k}, k \geq 1\right\}1nlogp(Xn)-\frac{1}{n} \log p\left(X^{n}\right) 依概率收敛到 H(X)H(X)

  • 典型集 Aε(n)A_{\varepsilon}^{(n)}:满足 2n(H(X)+ε)p(Xn)2n(H(X)ε)2^{-n(H(X)+\varepsilon)}\leq p(X^n)\leq2^{-n(H(X)-\varepsilon)}

  • 性质:

    1. (x1,x2,,xn)Aε(n),\left(x_{1}, x_{2}, \ldots, x_{n}\right) \in A_{\varepsilon}^{(n)},

    H(X)ε1nlogp(x1,x2,,xn)H(X)+εH(X)-\varepsilon \leq-\frac{1}{n} \log p\left(x_{1}, x_{2}, \ldots, x_{n}\right) \leq H(X)+\varepsilon

    1. nn 充分大时,Pr{Aε(n)}>1εPr\left\{A_{\varepsilon}^{(n)}\right\}>1-\varepsilon
    2. Aε(n)2n(H(X))+ε|A_{\varepsilon}^{(n)}|\leq2^{n(H(X))+\varepsilon}
    3. nn 充分大时,Aε(n)(1ε)2n(H(X))ε|A_{\varepsilon}^{(n)}|\geq (1-\varepsilon)2^{n(H(X))-\varepsilon}

AEP 的结果应用:数据压缩

  • 编码方案:

    1. 将每个集合中的所有元素按某种顺序 ( 如字典序 ) 进行排列。然后通过给予每个序列一 个下标,就可以表示 Aε(n)A_{\varepsilon}^{(n)} 中的每一个序列。 由于 Aε(n)A_{\varepsilon}^{(n)} 中的序列个数 2n(H(X)+ε),\leq 2^{n(H(X)+\varepsilon)}, 则这些下标不超过 n(H+ε)+1n(H+\varepsilon)+1 比特。在所有的 这些序列前加 0,表示 Aε(n)A_{\varepsilon}^{(n)} 中的每一个序列需要的总长度 n(H+ε)+2\leq n(H+\varepsilon)+2 比特。
    2. 对不属于 Aε(n)A_{\varepsilon}^{(n)} 中的每个序列给出下标,所需的字节数不超过 nlogX+1n\log|X|+1 比特。在这些序列前加 1,就获得了一个关于 XnX^{n} 中所有序列的编码方案。
  • xnx^{n} 表示序列 x1,x2,,xn,x_{1}, x_{2}, \ldots, x_{n},l(xn)l\left(x^{n}\right) 是对应于 xnx^{n} 的码字长度。

  • 定理: 设 XnX^{n} 为独立同分布序列且服从 p(x),ε>0,p(x), \quad \varepsilon>0, 则存在一个将 长度为n的序列 xnx^{n} 映射到二进制串的编码,使得编码是 “one-to-one” 的(因而可逆 ),且当n充分大时,有

E[1nl(Xn)]H(X)+εE\left[\frac{1}{n} l\left(X^{n}\right)\right] \leq H(X)+\varepsilon

  • 从平均意义上讲,用 nH(X)nH(X) 比特就可以表示序列 XnX^{n}

熵界

熵和平均码长

  • 熵界:信源 SS 的任一 rr 元即时码的平均码长必大于等于Hr(X)H_{r}(X), 其中等号成立当且仅当 pi=rlip_{i}=r^{-l_{i}}
    • 解释 : 信源 ss 发射的每个符号平均携带 Hr(S)H_{r}(S) 个信息单元 ; 如果要在不丢失任何信息的情况下对 SS 进行编码,则码 CC 必须是唯一可译码 ; 每个码字符号传达一个信息单元 , 因此平均每个码字必须至少包含 Hr(S)H_{r}(S) 个码字符号,也就是说 L(C)Hr(S)L(C) \geq H_{r}(S)
  • 编码效率:η=Hr(S)L(C)\eta=\frac{H_{r}(S)}{L(C)}
  • 冗余度: ηˉ=1η\bar{\eta}=1-\eta

几种典型的信源编码

Shannon-Fano 编码

  • Shannon-Fano 编码:由 Kraft 不等式,存在的满足码长条件的即时码 CC
    • 可以估算平均码长(Huffman 不行)
    • Hr(S)L(C)<1+Hr(S)H_r(S)\leq L(C)< 1+H_r(S)
    • 不知道如何构造

Shannon-Fano-Elias 编码

  • 思路:利用累积分布函数来分配码字
    • 设字母集 XX,假设对 xXx\in X,p(x)>0p(x)>0
    • 累积分布函数:F(x)=xap(x)F(x)=\sum_{x\geq a}p(x)
    • 修正的累计分布函数 Fˉ(x)=xap(a)+12p(x)\bar F( x)=\sum_{x\geq a}p(a)+\frac{1}{2}p(x)
    • Fˉ(x)=0.a1a2a3al(x)al(x)+1\bar F(x)=0.a_1a_2a_3\dots a_{l(x)}a_{l(x)+1}\dots
      • 码长 l(x)=[log1p(x)]+1l(x)=[\log\frac{1}{p(x)}]+1,用 [Fˉ(x)]l(x)[\bar F(x)]_{l(x)} 表示小数点后 l(x)l(x) 位,则码字为 [Fˉ(x)]l(x)[\bar F(x)]_{l(x)}
      • 平均码长:Lˉ<H(x)+2\bar L<H(x)+2,只比最优值多了 2 bit

算术编码方法

  • 上述编码都是建立在信源符号于码字一一对应的基础上的,被称为块码,而要对序列进行编码,则需要从整个序列出发,采用递推形式进行编码
  • 基本方法:
    • 寻找一个计算 xnx^n 的概率分布 p(xn)p(x^n) 和累积分布函数 F(xn)F(x^n) 的快速算法
    • 利用 Shannon-Fano-Elias 方法进行编码:用 [F(xn)p(xn),F(xn)][F(x^n)-p(x^n),F(x^n)] 中的一个二进制数表示 xnx^n 码字
  • 以二元序列为例
    • 编码:F(xn)=ynxnp(yn)=T子树在xn的左侧p(T)+p(xn)F(x^n)=\sum_{y^n\leq x^n}p(y^n)=\sum_{T \text{子树在} x^n \text{的左侧}} p(T)+p(x^n),码长为 [log1p(xn)][\log \frac{1}{p(x^n)}]
    • 译码:从收到的码字计算相应的 F(xn)F(x^n),从根节点开始比较 F(xn)p(0)F(x^n) 和 p(0)
      • 如果 F(xn)>p(0)F(x^n)>p(0),则从 0 往下的子树在 xnx^n 的左边,第一位是 1,反之是 0
      • 如果已经译出 x1=0x_1=0,则继续比较 F(xn)F(x^n)p(00)p(00),以此类推
  • 优点
    • 编码效率高:当序列很长时,η\eta 接近 1
    • 需要参数少,编码译码简单,没有哈夫曼那样的大码表
  • 实际使用时,如果编码使用的是非真实分布,平均长度会增加 D(pq)D(p\|q)

香农第一定理

信源的扩张

  • 扩展信源:S={s1,,sq}S=\left\{s_1,\dots,s_q\right\} 的 n 次扩展信源的消息集合为 Sn={s11,,s1n,sq1,,sqn}S^n=\left\{s_{1_1},\dots,s_{1_n},s_{q_1},\dots,s_{q_n}\right\}
    • 可以看作是 n 个 SS 的乘积
      • 乘积:对于消息集合 S,TS,TS×T={si,tj}S\times T=\left\{s_i,t_j\right\}
      • 如果 S,TS,T 独立,则 Hr(S,T)=Hr(S)+Hr(T)H_r(S,T)=H_r(S)+H_r(T)
    • 单位消息的平均码长随着信源扩张不断降低

香农第一定理

  • Shannon 信源编码定理、可变长无失真信源编码定理:通过对 nn 足够大的 SnS^n 进行编码,总可以找到信源 SS 的一个 rr 元即时码,其对应 SS 的平均码长可以与 Hr(S)H_r(S) 任意接近
  • 是一个存在性定理

LZ 编码

  • 比 Huffman 编码更高效,比算术编码更快捷的算法

LZ78

  • 是一种分段编码算法,编码是将输入信源序列分段:

    • 首先,取一个符号作为第一段
    • 然后继续分段,若有符号与前面符号相同时,就再取紧跟后面的一个符号一起组成一个段,使之与前面的段不同
    • 当字典达到一定大小,再分段就应查看是否与字典中已有符号相同,若有重复就添加符号后查看,直至与字典中短语不同为止
  • 分段规则:尽可能取最少个相连的信源符号,并保证各段都不相同

  • 设信源符号集 A={a1,a2,,ak}A=\left\{a_1,a_2,\dots,a_k\right\} ,输入信源符号序列为 u=(u1,u2,,uL)u=(u_1,u_2,\dots,u_L),其中 uiAu_i\in A,编码时 uu 按照规则进行分段

  • 设分段结果为 {y1,y2,yc}\left\{y_1,y_2\cdots,y_c\right\} 构成字典,则 yjAy_j\in A 或有 yj=yiar(i<j)y_j=y_ia_r(i<j),所以编码码字可以用段号 ii 和符号序号 rr 组成

    • 仅包含单符号的短语段号为 0,非单字符短语的为除最后一个符号外字典中相同短语的段号
  • 编码码字为 Nj=ik+rN_j=i*k+r

    • 段号所需码长 [logc][\log c],符号序号所需码长为 [logK][\log K]
    • 总码长 c([logc]+[logK])c([\log c]+[\log K]),平均码长 c([logc]+[logK])L\frac{c([\log c]+[\log K])}{L}
  • 定理:随着输入序列增长,LZ 的编码效率提高,平均码长会逼近信源熵

信道

信道

  • 信道:传输信息的媒介
graph TD
A[信源A]--输入端-->B[信道]
B--输出端-->C[信宿B]
D[干扰]-->B

信道分类

根据输入输出时间的时间特性和输入分类
  • 离散信道:A 和 B 都是离散事件集合
  • 连续信道:A 和 B 都是连续事件集合
  • 半连续信道:A 和 B 一个是离散事件集合,一个是连续事件集合
  • 时间离散的连续信道:信道的输入和输出是取决于连续集合的序列
  • 波形信道:信道输入和输出是随机过程
根据输入和输出个数
  • 两端信道:输入输出只有一个事件集合
  • 多端信道:输入和输出至少有一段有两个以上的事件集合
根据统计特性
  • 恒参信道:信道的统计特性不随时间变化
  • 随参信道:信道统计随时间变化
根据记忆特性
  • 无记忆信道:输出集仅取决当前输入集
  • 有记忆信道:输出集与当前和以前若干个输入集有关
传播路线
  • 有线信道
  • 无线信道
有无噪声
  • 无噪信道:无损信道+确定信道

    • 信道的输入和输出集存在确定的函数关系

      {p(ynxn)=1yn=f(xn)p(ynxn)=0ynf(xn)\begin{cases} p(y_n|x_n)=1 &y_n=f(x_n)\\ \\ p(y_n|x_n)=0 &y_n\neq f(x_n) \end{cases}

  • 有噪信道

有无损
  • 无损信道
  • 有损信道

离散信道模型

  1. 信道输入事件的概率空间为

[A={a1,,ar}P={pi=p(a=ai)}]\left[\mathbf{A}=\left\{a_{1}, \ldots, a_{r}\right\} \quad \mathbf{P}=\left\{\boldsymbol{p}_{i}=\boldsymbol{p}\left(\boldsymbol{a}=\boldsymbol{a}_{i}\right)\right\}\right]

  1. 信道输出事件的概率空间为

[B={b1,,bs}Q={qj=p(b=bj)}]\left[\mathbf{B}=\left\{\boldsymbol{b}_{1}, \ldots, \boldsymbol{b}_{s}\right\} \quad \mathbf{Q}=\left\{\boldsymbol{q}_{j}=\boldsymbol{p}\left(\boldsymbol{b}=\boldsymbol{b}_{\boldsymbol{j}}\right)\right\}\right]

  1. 信道相当于一个数学交换,可以用条件概率描述

pij=p(b=bja=ai)=p(bjai)\boldsymbol{p}_{i j}=\boldsymbol{p}\left(\boldsymbol{b}=\boldsymbol{b}_{j} \mid \boldsymbol{a}=\boldsymbol{a}_{i}\right)=\boldsymbol{p}\left(\boldsymbol{b}_{\boldsymbol{j}} \mid \boldsymbol{a}_{\boldsymbol{i}}\right)

离散无记忆信道 DMC
  • 若离散信道的转移概率满足

p(yx)=p(y1y2yNx1x2xN)=i=1Np(yixi)p(y \mid x)=p\left(y_{1} y_{2} \ldots y_{N} \mid x_{1} x_{2} \ldots x_{N}\right)=\prod_{i=1}^{N} p\left(y_{i} \mid x_{i}\right)

​ 则称其为离散无记忆信道,记作 [Xp(yixi)Y]\left[X p\left(y_{i} \mid x_{i}\right) Y\right]

平稳信道(恒参信道)
  • 若 DMC 对于任意给定的 nnmm

p(yn=bjxn=ai)=p(ym=bjxm=ai)p\left(y_{n}=b_{j} \mid x_{n}=a_{i}\right)=p\left(y_{m}=b_{j} \mid x_{m}=a_{i}\right)

​ 则称为平稳信道,即信道转移概率不随时间变化

信道矩阵
  • 信道矩阵:可以表示信道传递概率
    • 每个元素不小于 0
    • 每行元素和等于 1

几种典型有扰离散信道

二进制对称信道
  • BSC
    • P=[1εεε1ε]P=\begin{bmatrix}1-\varepsilon &\varepsilon \\\varepsilon&1-\varepsilon \end{bmatrix}
    • 对称信道:所有行/列都是第一行/列的置换
二进制删除信道(BEC)
  • 输出结果除了 0 和 1,还多了 E
  • P=[1ε1ε2ε1ε2ε2ε11ε1ε2]P=\begin{bmatrix}1-\varepsilon_1-\varepsilon_2 &\varepsilon_1&\varepsilon_2 \\\varepsilon_2&\varepsilon_1&1-\varepsilon_1-\varepsilon_2 \end{bmatrix}

    • 准对称信道:每个子集行元素集合相同

公式和定义

  • 先验概率,前向(信道传递)概率,后向(后验)概率,联合概率,输出符号概率

  • 信道疑义度:信源收到全部符号 YY 后,对输入符号 XX 的平均不确定程度 H(XY)H(X|Y)

  • 平均互信息:消除的不确定性

    • 对于给定信道,I(X;Y)I(X;Y) 是信源分布 p(x)p(x) 的凹函数——至少存在一个信源通过该信道传递时,可以获得最大平均互信息(信道容量)
    • 对于给定信道,I(X;Y)I(X;Y) 是信道传递函数 p(yx)p(y|x) 的凸函数——至少存在一个信道,当信源通过时,获得最小平均互信息(限失真信源压缩-率失真函数)

香农第一定理的推广

  • 给定信道输出 BB 的知识下,对信道输入 AA 的唯一可译码的平均码长下界为 H(AB)H(A|B)

信道容量的定义与计算

  • 信道容量:c=defmaxp(x)I(X:Y)c\overset{def}{=}\underset{p(x)}{\max}{I(X:Y)}

    • 表征信道传输信息的最大能力
    • 寻找一个信源分布 p(x)p(x)
  • 特殊的信道

  • 有噪打字机

  • DMC 的最佳输入分布

    • 输入概率分布 {x,q(x),x{0,1,,K1}}\{x, q(x), x \in\{0,1, \ldots, K-1\}\} 是最佳输入分布的充分必要条件为:
      对任何满足 q(k)>0q(k)>0kk,

      I(X=k;Y)=y=0J1p(yk)logp(yk)z=0K1q(z)p(yz)=CI(X=k ; Y)=\sum_{y=0}^{J-1} p(y \mid k) \log \frac{p(y \mid k)}{\sum_{z=0}^{K-1} q(z) p(y \mid z)}=C

      对任何满足 q(k)=0q(k)=0k,I(X=k;Y)Ck, I(X=k ; Y) \leq C
      CC 恰好就是DMC的信道容量
  • 准对称 DMC

    • 当输入分布等概时,输出分布局部等概

    • 达到信道容量的最佳输入分布为等概分布

    • 信道容量
      C=y=0J1p(yk)logp(yk)w(y)=I(X=k;Y)C=\sum_{y=0}^{J-1} p(y \mid k) \log \frac{p(y \mid k)}{w(y)}=I(X=k ; Y) 对任意 k{0,1,,K1}k \in\{0,1, \ldots, K-1\} 都成立

信道组合

积信道(并联信道)

  • 两个以上信道并行使用

  • 信道容量 C=C1+C2C=C_1+C_2

  • 最佳输入分布

    {(x,u),q1(x)q2(u)}\left\{(x,u),q_1(x)q_2(u)\right\}

和信道(合信道)

  • 两个以上信道交替使用

  • 信道容量 C=log(2C1+2C2)C=\log (2^{C_1}+2^{C_2})

  • 最佳输入分布

    {x,2C12C1+2C2q1(x)}\left\{x, \frac{2^{C_{1}}}{2^{C_{1}}+2^{C_{2}}} q_{1}(x)\right\}
    {u,2C22C1+2C2q2(u)}\left\{u, \frac{2^{C_{2}}}{2^{C_{1}}+2^{C_{2}}} q_{2}(u)\right\}

级联信道(串联信道)

  • 两个以上信道串联使用
  • 信道容量 Cmax{C1,C2}C\leq \max\left\{C_1,C_2\right\}

译码规则和联合 AEP

译码规则

  • 信道容量描述了一个信道单位时间可以传输的最大信息量,但是未保证信息传输的无差错性
  • 译码规则:对每一个输出符号 yiy_i 都有一个确定函数 Δ(yi)\Delta(y_i) ,使 yiy_i 对应唯一的一个输入符号 xix_i,这样的一族函数,称为译码规则
    • 对于有 rr 个输入,ss 个输出的信道而言,译码规则有 rsr^s
  • 译码错误概率:在确定 Δ(yi)=xi\Delta(y_i)=x_i 后,若信道输出端接收到符号 yiy_i,则译为 xix_i
    • 如果发送端发送的就是 xix_i,译码正确,正确概率为 p(xiyi)p(x_i|y_i)
    • 如果发送端发送的不是 xix_i,译码错误,错误概率1p(xiyi)1-p(x_i|y_i)
    • ※:注意是 yiy_i 下的条件概率,所以往往需要使用贝叶斯公式
  • 平均译码错误概率:PE=Yp(yj)pE(yj)P_E=\sum_Yp(y_j)p_E(y_j)
  • 最优译码规则:平均译码错误概率最小的译码规则
  • 最大后验概率准则(理想观测者准则):对于收到的的符号 yjy_j,译码规则 Δ(yj)=x\Delta(y_j)=x^*,使之满足条件 p(xyj)p(xiyj)(i=1,2,,r)p(x^*|y_j)\geq p(x_i|y_j)\quad(i=1,2,\dots,r)
    • 所有译码规则中,最大后验概率准则的 PEP_E 最小
  • 极大似然译码准则(大数逻辑译码准则):对于收到的的符号 yjy_j,译码规则 Δ(yj)=x\Delta(y_j)=x^*,使之满足条件 p(yjx)p(x)p(yjxi)p(xi)(i=1,2,,r)p(y_j|x^*)p(x^*)\geq p(y_j|x_i)p(x_i)\quad(i=1,2,\dots,r)
    • 与最大后验概率准则等价,但是更加方便计算

编码方法和错误概率

  • 影响平均译码错误概率的因素

    • 译码规则:数学上通过信道编码改变
    • 信道转移概率:物理上通过更换信道改变
  • n 次简单重复编码:从 nn 次编码可供选择的 2n2^n 的码字中,选取 MM 个进行传输,输入概率等概率,则

    • 随着 nn 增大,平均错误概率下降,信息传输率也减少
    • 随着 MM 增大,平均错误概率增大,信息传输率增大
  • (5,2) 线性码

    • 特点:适当增加 MMnn,得到较低平均错误概率和较好信息传输率的信道编码
    • 选择海明距离小的译成同一码字

汉明码和线性码

  • 信道编码定理仅给出了码的存在性,没有说明如何获得工程上的好码,这是几十年努力的目标:码长尽量短;码字具有规律

汉明码

  • 码重:二进制序列中 1 的个数
  • 汉明距离:两个二进制序列中对应位不相等的个数
  • 二元汉明码 Ham (r,2)(r, 2) 的译码方式
    1. 根据二进制表示的列向量从 11n=2r1n=2^r-1 排列得到奇偶校验矩阵 HH
    2. 设由信道接收到消息 x,x, 计算 S(x)=xHTS(x)=x H^{T}
    3. 如果 S(x)=xHT=0S(x)=x H^{T}=0, 则没有错误发生
    4. 否则,则有一个错误发生 ,S(x), S(x) 即为错误位置的二进制表示,将错误位置 上的值改变即可
  • 一般地 : 前 kk 个比特代表消息,后面 nkn-k 个比特留作奇偶校验位,这样得到的码通常称为系统码
    • 码由分组长度 n,n, 信息比特数 kk 以及 最小距离 dd 三个参数确定
  • 二元汉明码 Ham (r,2)(r, 2) 的译码参数
    • 码长:n=2r1n=2^r-1
    • 校验位个数:rr
    • 信息位个数:k=nr=2r1rk=n-r=2^r-1-r
    • 最小码字长度:d=W(C)d=W(C)
    • 纠错能力:t=[t12]t=[\frac{t-1}{2}]

线性码

  • 定理: qq 元汉明码Ham (r,q)(r, q)qq(n,nr,3)(n, n-r, 3) 线性码,其中
    n=(qr1)/(q1)n=\left(q^{r}-1\right) /(q-1)

  • 现考虑 FF 上码长为 n 的码,则这种码的码字集合是 FnF^{n} 的一个子集,注意是 FF 上 的 n 维向量空间

    如果码 CC 的码字集合构成 FnF^{n} 的一个线性子空间,设此线性空间维数为 k,k, 此时将码 CC 记作 (n,k)(n, k) 线代码

  • 如果线性码 CC 的生成矩阵 GG 的标准形式为 G=(IkP)G=\left(I_{k} \mid P\right), 则 CC 的一个校验矩阵形如 H=(PTInk)H=\left(-P^{T} \mid I_{n-k}\right)

  • 线性码的编码方式:设G为 qq(n,k)(n, k) 线性码 CC 的生成矩阵 ,, 如果信源消息 xxFkF^{k} 的一个向量 ,, 则对 任意 xFk,x \in F^{k}, 将其编码为 xGx G

  • 线性码的译码方式:

    • 列表法:按如下方式构造列表
      1. 表的第1行为 LL 中所有码字,且 0 排在第1位 (0+L)(0+L)
      2. 对第 i 行,首先选取不在先前 i1i-1 行中出现且重量最小的 viFn,v_{i} \in F^{n}, 令第 i 行 的所有元素为 vi+L,v_{i}+L, 且其余元素按照第1行中非零码字的排列顺序进行排列,使得每行元素互不相交
      3. 重复以上步骤,直到排完 FnF^{n} 的所有元素 ,, 最终该表共有 qnqk=qnk\frac{q^{n}}{q^{k}}=q^{n-k} 行,称作标准阵 (vi\left(v_{i}\right. 为陪集头 ))
      4. 设线性码的最小距离为 d,d, 则令 t=d12]t=\left\lfloor\frac{d-1}{2}\right] 为码的纠错个数,在重量为 wt(vi)tw t\left(v_{i}\right) \leq t 的最后一行后划一条横线作为标记
    • 利用伴随式进行解码
      1. 将列表简化,仅保留两列:陪集头及其伴随式
      2. 设接收到 vv, 则计算其伴随式 vHTv H^{T} ,在上述伴随式表中寻找伴随式与 xHTx H^{T} 相的陪集头 viv_{i}
      3. 将v译为 vviv-v_{i}

译码错误概率和不可检错误概率


信息论与编码备忘
https://justloseit.top/信息论与编码备忘/
作者
Mobilis In Mobili
发布于
2021年1月1日
更新于
2023年3月3日
许可协议