信息论学习笔记——信源和信息度量

第二章 信源和信息度量

实际有用的信源应具有不确定性(Uncertainty)

信源的分类: 信源的分类

从信源获取信息的过程就是其不确定度缩减的过程。

对于离散信源:

  • 自信息(自信息量)
  • 联合自信息
  • 条件自信息

I(x) = -log(P(x))

取以2为底的对数,单位为比特(bit,binary unit) 取以e为底的对数,单位为奈特(nat,Nature unit) 取以10为底的对数,单位为哈特(Hart, Hartley)

  • 信源熵:平均自信息量 H(x) = E[I(x)]
  • H(x)=H(P)=H(p1,p2,…,pr)=-∑pilog(pi)
  • 信息熵只会减少,不会增加 负热熵
  • Shannon熵 Shannon信息熵
  • 条件熵
  • 联合熵
  • 熵函数的性质:
    • 非负性
    • 对称性
    • 确定性
    • 扩展性
    • 连续性
    • 递增性
    • 极值性
    • 上凸性
    • 可加性
    • 强可加性
  • 熵的不增原理
作者

xsxun

发布于

2018-09-18

更新于

2018-09-18

许可协议

CC BY-NC 4.0

评论

Your browser is out-of-date!

Update your browser to view this website correctly.  Update my browser now

×