信息的度量
信息的度量和不确定性消除的程度有关
不确定性的程度与事件发生的概率有关
信息量与概率的关系:
信息量是概率的单调递减函数
概率小,信息量大
概率大,信息量小
自信息量的物理含义
自信息量表示事件发生后,该事件给予观察者的信息量。
自信息量的大小取决于事件发生的概率。事件发生的可能性越大,它所包含的信息量就越小。反之,事件发生的概率越小,它能提供的信息量就越大。
信息的度量和不确定性消除的程度有关
不确定性的程度与事件发生的概率有关
信息量与概率的关系:
信息量是概率的单调递减函数
概率小,信息量大
概率大,信息量小
自信息量的物理含义
自信息量表示事件发生后,该事件给予观察者的信息量。
自信息量的大小取决于事件发生的概率。事件发生的可能性越大,它所包含的信息量就越小。反之,事件发生的概率越小,它能提供的信息量就越大。
大小:48.1 MB
PDF超清版
肖文博主编的 《统计信息化--Excel与SPSS应用 》 的编写目的就是为高等院校学生运用Excel和SPSS 进行数据处理和分析提供一个指南,一方面努力使读 者能够迅速地掌握使用Excel和SPSS进行统计分析
大小:19.6 MB
PDF修订完整版
这书对网络安全与信息保密作了较为全方位系统软件的科学研究和详细介绍。全书共六章,各自对网络安全与信息保密、登陆密码技术性、防火墙技术、虚拟专用网技术性、病毒感染与反病毒
大小:2800 MB MB
PDF版
大小:8768 MB MB
PDF版
大小:1.3GB MB
PDF高清版
ArcGIS Engine地理信息系统开发教程 基于ArcGIS Engine 10,以C#.NET 2010为开发语言进行讲解。内容包括ArcGIS Engine编程基础、GIS应用软件的开发方式、地图基本操作、查询统计、地图制图、数据编辑、空
大小:7123 MB MB
PDF版
本书结合我国信息化发展和政府改革的时代背景,系统地论述了电子政务顶层设计的基本框架与方法体系。全书分为八章,在分析国内外理论体系与实践现状的基础上,阐明了我国电子政务顶层设计的目标与推进策略,构建了顶层设计的基本框架,并对框架内各架构的具体设计方法进行了详细阐述,探讨了电子政务顶层设计成果的应用方式,最后系统介绍福建省和上海市电子政务顶层设计实践的相关思路与方法。
Python网络爬虫实战
类别:Python爬虫
Python爬虫Spider基础保姆级教程(带目录)
类别:Python爬虫Spider教程
微机原理与接口技术 课后答案
类别:微机原理
鸟哥的Linux私房菜:基础学习篇(第4版)
类别:Linux
Effective Java中文版(第3版)
类别:java
混凝土结构施工图(16G101-1图集)
类别:16g101图集
Python数据分析基础:机器学习numpy和pandas基础
类别:Python数据分析
Linux从入门到精通(第2版)
类别:Linux
同济高等数学第七版(上、下册)
类别:高等数学
信息论基础
1、熵和信息量
有一组离散符号集{v1,v2,...,vm},每个符号具有相应概率Pi,为衡量这组符号组成的特定序列的随机性(不确定性或不可预测性),定义离散分布的熵:,对数以2为底,熵的单位的“比特”,当连续情况时,底数为e,单位为“奈特”。对于回答是否问题时,每个可能答案出现概率为0.5,那么此时的熵为1。熵的公式也可写为:H=ε[log(1/P)],P是随机变量,取值P1,P2,...Pm,log21/P有时称惊奇率。
熵的值并不依赖与符号本身,而只依赖于这些符号的概率。对于给定的m个符号,当这些符号出现的概率相同时,熵最大(H=log2m)。即当每个符号出现的概率相同时,对下一个符号出现什么的不确定性最大。只有一个符号的概率为1,其他为零时,熵最小,为0。
对连续情况熵定义为:
数学期望形式为H=ε[ln(1/p)]。在所有的连续密度函数中,如果均值μ和方差σ2都取已知的固定值,高斯分布使熵达到最大值H=0.5+log2(根号下2π乘以σ)。如果让方差趋近0,则高斯函数将趋近于狄拉克函数,此时熵最小为负无穷大。对于狄拉克函数的分布,几乎能确定每次出现的x的值就是a。
对于随机变量x和任意函数f(·),有H(f(x))≤H(x),即对原始信号的任何处理都不能增加熵(信息量)。若f(x)是取常值的函数,则熵为0。离散分布熵的另一个重要性质:任意改变事件标记,不会影响这组符号的熵,因为熵只与符号出现概率有关,与符号本身无关。但对于连续随机变量则不一定成立。2、相对熵
假设对同一离散变量x,有2种可能形式的离散概率分布p(x)和q(x)。为了衡量这两个分布之间的距离,定义相对熵(Kullback-Leiber距离):连续情况下相对熵定义为:
相对熵不是一个真正的度量,因为把p和q互相交换时,DKL并不具有对称性
3、互信息
假设有两个不同变量概率分布,p(x)和q(x)。互信息指在获得一个变量的信息后,对另一个变量的不确定性的减少的量