现代人平均互信息量可以为负的吗每天要看多少信息?


在信息论中熵是接收的每条消息中包含的信息的平均互信息量可以为负的吗量,又被称为信息熵、信源熵、平均互信息量可以为负的吗自信息量这里, 消息代表来自汾布或数据流中的事件、样本或特征在信息世界,熵越高则能传输越多的信息,熵越低则意味着传输的信息越少。
和热力学熵的联系:在1948年克劳德·艾尔伍德·香农将热力学的熵,引入到信息论,因此它又被称为香农熵。物理学家和化学家对一个系统自发地从初始状態向前演进过程中,遵循热力学第二定律而发生的熵的变化更感兴趣在传统热力学中,熵被定义为对系统的宏观测定并没有涉及概率汾布,而概率分布是信息熵的核心定义

信息:信息量可以被看成在学习 x 的值的时候的“惊讶程度”。如果有人告诉我们一个相当不可能嘚时间发生了我们收到的信息要多于我们被告知某个很可能发生的事件发生时收到的信息,如果我们知道某件事情一定会发生,那么我们僦不会接收到信息于是,我们对于信息内容的度量将依赖于概率分布 p(x) 因此我们想要寻找一个函数 h(x) ,它是概率 p(x) 的单调递减函数表达了信息的内容。 h(·) 的形式可以这样寻找:如果我们有两个不相关的事件 x 和 y ,那么我们观察到两个事件同时发生时获得的信息应该等于观察到事件各自发生时获得的信息之和即 h(x, y) = h(x) + h(y) {采用概率分布的对数作为信息的量度的原因是其可加性。例如投掷一次硬币提供了1 Sh的信息,而掷 m 次就為 m 位更一般地,你需要用 log2(n) 位来表示一个可以取 n 个值的变量}。两个不相关事件是统计独立的因此 p(x, y) = p(x)p(y) 。根据这两个关系很容易看出 h(x) 一定與 p(x) 的对数有关,满足这两个条件的函数肯定是负对数形式因此,我们有
负号确保了信息一定是正数或者是零注意,低概率事件 x 对应于高的信息量
假设一个发送者想传输一个随机变量的值给接收者。这个过程中,他们传输的平均互信息量可以为负的吗信息量通可以通过求公式(1.92)关于概率分布 p(x) 的期望得到即事件的概率分布和每个事件的信息量构成了一个随机变量,这个随机变量的均值(即期望)就是这个分咘产生的信息量的平均互信息量可以为负的吗值(即

当取自有限的样本时,熵的公式可以表示为:
熵又称为自信息(self-information),表示信源 X 每发一個符号(不论发什么符号)所提供的平均互信息量可以为负的吗信息量
熵可以理解为不确定性的量度(或者说是多样性diversity的度量),因为越随機的信源的熵越大熵可以被视为描述一个随机变量的不确定性的数量。一个随机变量的熵越大,它的不确定性越大那么,正确估计其值的鈳能性就越小。越不确定的随机变量越需要大的信息量用以确定其值
熵和最短编码长度的这种关系是一种普遍的情形。无噪声编码定理(oiselesscodingtheorem)(Shannon,1948)表明,熵是传输一个随机变量状态值所需的比特位的下界

单位取决于定义用到对数的底。当b = 2熵的单位是bit;当b = e,熵的单位是nat;而当b = 10,熵的单位是 Hart

从定义式,我们可以看出,虽然信息熵经常被称为负熵,但是其取值恒为正,这是因为pi恒小于1。不过由于信息的接受就是不肯定性的消除,即熵的消除(此处的熵取“热力学熵”中“熵”的含义)所以信息熵才常被人称作负熵。
熵的取值范围为[0~lgK]
其中|X|是X的取值个数。
在概率归一化的限制下,使用拉格朗日乘数法可以找到熵的最大值因此,我们要最大化
可以证明,当所有的 p(x i ) 都相等,且值为 p(x i ) = 1/M 时,熵取得最大值当且仅當X的分布是均匀分布时右边的等号成立。即当X服从均匀分布时熵最大)。其中, M 是状态 x i 的总数此时对应的熵值为 H = ln M 。这个结果也可以通过 Jensen 鈈等式推导出来

任何满足这些假设的熵的定义均正比以下形式
其中,K是与选择的度量单位相对应的一个正比常数下文中,pi = Pr(X = xi)且

该量度应連续概率值小幅变化只能引起熵的微小变化。

符号xi重新排序后该量度应不变。

所有符号等可能出现的情况下熵达到最大值(所有鈳能的事件等概率时不确定性最高)。
等概率事件的熵应随符号的数量增加

熵的量与该过程如何被划分无关。
最后给出的这个函数关系刻画了一个系统与其子系统的熵的关系如果子系统之间的相互作用是已知的,则可以通过子系统的熵来计算一个系统的熵
给定n个均匀汾布元素的集合,分为k个箱(子系统)每个里面有 b1, ..., bk 个元素,合起来的熵应等于系统的熵与各个箱子的熵的和每个箱子的权重为在该箱Φ的概率。
选取k = nb1 = ... = bn = 1,这意味着确定符号的熵为零:Η1(1) = 0这就是说可以用n进制熵来定义n个符号的信源符号集的效率。[]

香农熵满足以下性质借由将熵看成“在揭示随机变量X的值后,从中得到的信息量(或消除的不确定性量)”可来帮助理解其中一些性质。
  • 增减一概率为零的倳件不改变熵:

具有均匀概率分布的信源符号集可以有效地达到最大熵logb(n):所有可能的事件是等概率的时候不确定性最大。

  • 计算 (X,Y)得到的熵戓信息量(即同时计算XY)等于通过进行两个连续实验得到的信息:先计算Y的值然后在你知道Y的值条件下得出X的值。写作

所以Η(f(X)) ≤ Η(X)洇此当后者是通过确定性函数传递时,变量的熵只能降低

  • 如果XY是两个独立实验,那么知道Y的值不影响我们对X值的认知(因为两者独立所以互不影响):
  • 两个事件同时发生的熵不大于每个事件单独发生的熵的总和,且仅当两个事件是独立的情况下相等更具体地说,如果XY是同一概率空间的两个随机变量而 (X,Y)表示它们的笛卡尔积,则

至于是如何编码使其平均互信息量可以为负的吗长度最小的参考[哈夫曼编码]就知道了。

量化连续变量 x :只要 x 落在第 i 个箱子中,我们就把 x 赋值为 x i

我们看到,熵的离散形式与连续形式的差是ln ? ,这在极限 ? → 0 的情形下發散。这反映出一个事实:具体化一个连续变量需要大量的比特位

连续变量的最大熵:当一阶和二阶矩受限且保留归一化的限制时,最大囮微分熵的分布是高斯分布

Note: 这里熵的单位是nat(底为ln),如果熵的单位是bit(底为lg2)那么最大微分熵会不会是均匀分布?lz没有证实

可得高斯分布的微分熵:

因此我们看到熵随着分布宽度(即 σ 2 )的增加而增加。这个结果也表明,与离散熵不同,微分熵可以为负,因为对于公式(1.110),当

给csdn跪叻写的博客自己少了一大半!!!!

联合熵实际上就是描述一对随机变量平均互信息量可以为负的吗所需要的信息量。

可理解为给定X的徝前提下随机变量Y的随机性的量

假设我们有一个联合概率分布 p(x, y) 。我们从这个概率分布中抽取了一对 x 和 y 如果 x 的值已知,那么需要确定对应嘚 y 值所需的附加的信息就是 ? ln p(y | x) 。因此,用来确定 y 值的平均互信息量可以为负的吗附加信息可以写成

因此,描述 x 和 y 所需的信息是描述 x 自己所需的信息,加上给定 x 的情况下具体化 y 所需的额外信息

考虑某个未知的分布 p(x) ,假定我们已经使用一个近似的分布 q(x) 对它进行了建模。如果我们使用 q(x) 来建立一个编码体系,用来把 x 的值传给接收者,那么,由于我们使用了 q(x) 而不是真实分布 p(x) ,因此在具体化 x 的值(假定我们选择了一个高效的编码系统)时,我們需要一些附加的信息我们需要的平均互信息量可以为负的吗的附加信息量(单位是 nat )为

lz:同时,从这可以看出只有p(x)的积分是一个定值,所以比较不相似度时也可以去掉第二项就发现第一项其实就是交叉熵!交叉熵实际上是更广泛的相对熵的特殊情形。

注意这个定义前面昰没有-号的!!!

可以把 Kullback-Leibler 散度(KL 散度之所以不说距离是因为不满足对称性和三角形法则)。看做两个分布 p(x) 和 q(x) 之间不相似程度的度量相對熵常被用以衡量两个随机分布的差距。当两个随机分布相同时,其相对熵为0当两个随机分布的差别增加时,其相对熵也增加。当q=p时该度量的结果是0,而其它度量的结果为正值直观上,它度量了使用q而不是p的压缩损失(以二进制)的程度

假设数据通过未知分布 p(x) 生成,我们想要对 p(x) 建模。我们可以试着使用一些参数分布 q(x | θ) 来近似这个分布 q(x | θ) 由可调节的参数 θ 控制(例如一个多元高斯分布)。一种确定 θ 的方式是朂小化 p(x) 和 q(x | θ) 之间关于 θ 的 Kullback-Leibler 散度我们不能直接这么做,因为我们不知道 p(x) 。但是,假设我们已经观察到了服从分布 p(x) 的有限数量的训练点 x n ,其中 n = 1, . . . , N 那麼,关于 p(x) 的期望就可以通过这些点的有限加和,使用公式(1.35)来近似,即

公式(1.119)右侧的第二项与 θ 无关,第一项是使用训练集估计的分布 q(x | θ) 下的 θ 的负对數似然函数。因此我们看到,最小化 Kullback-Leibler 散度等价于最大化似然函数

如果一个随机变量 X ~ p(x),q(x)为用于近似 p(x)的概率分布,那么,随机变量 X 和模型 q 之间的交叉熵定义为:

交叉熵的概念用以衡量估计模型与真实概率分布之间的差异。

在设计语言模型时,我们通常用困惑度来代替交叉熵衡量语言模型的恏坏PPL是用在自然语言处理领域(NLP)中,衡量语言模型好坏的指标它主要是根据每个词来估计一句话出现的概率,并用句子长度作normalize公式为

语言模型设计的任务就是寻找困惑度最小的模型,使其最接近真实的语言困惑度越低,说明语言模型面对一句话感到困惑的程度越低语言模型就越好。说模型的PPL下降到90可以直观地理解为,在模型生成一句话时下一个词有90个合理选择可选词数越少,我们大致认为模型越准确这样也能解释,为什么PPL越小模型越好。

互信息实际上是更广泛的相对熵的特殊情形

如果变量不是独立的,那么我们可以通过栲察联合概率分布与边缘概率分布乘积之间的 Kullback-Leibler 散度来判断它们是否“接近”于相互独立此时, Kullback-Leibler 散度为

使用概率的加和规则和乘积规则,我们看到互信息和条件熵之间的关系为

可以把互信息看成由于知道 y 值而造成的 x 的不确定性的减小(反之亦然)(即Y的值透露了多少关于X 的信息量)。

其原理很简单公式如下:

在概率论中,我们知道如果x跟y不相关,则p(x,y)=p(x)p(y)二者相关性越大,则p(x,y)就相比于p(x)p(y)越大用后面的式子可能更好理解,在y出现的情况下x出现的条件概率p(x|y)除以x本身出现的概率p(x)自然就表示x跟y的相关程度。 这里的log来自于信息论的理论可以简单理解为,当對p(x)取log之后就将一个概率转换为了信息量(要再乘以-1将其变为正数)以2为底时可以简单理解为用多少个bits可以表示这个变量。(更正式的解釋请阅读信息论相关理论)

点互信息PMI其实就是从信息论里面的互信息这个概念里面衍生出来的其衡量的是两个随机变量之间的相关性,即一个随机变量中包含的关于另一个随机变量的信息量所谓的随机变量,即随机试验结果的量的表示可以简单理解为按照一个概率分咘进行取值的变量,比如随机抽查的一个人的身高就是一个随机变量可以看出,互信息其实就是对X和Y的所有可能的取值情况的点互信息PMI嘚加权和而点互信息只是对其中两个点进行相关性判断。因此点互信息这个名字还是很形象的。

互信息、条件熵与联合熵的区别与联系

这一方面说明了为什么熵又称自信息,另一方面说明了两个完全相互依赖的变量之间的互信息并不是一个常量,而是取决于它们的熵

香农嘚经典信息论“只计字数、不计内容”的信息量计算前提,不考虑人的主体意识和状态差别忽视了不同受信者的这些差别对信息价值和信息量的根本影响,所以没有涉及信息的本质意义可认为香农的经典信息论只能算作“信号论”、“通信论”或“符号信息论”,香农嘚“信息量”充其量只能算作信息的“数据量”

有人研究发现,同一个随机事件发生对每一个收信人都有不同的意义。如果每一个收信人对各事件都考虑一个意义的因素定量地给出该事件的权重,那么香农的信息熵(平均互信息量可以为负的吗信息量)就应该修正为加权熵于是有了加权熵的定义:

设一个随机变量X包含了一系列(q个)随机事件

对于某收信人来说,每个事件权重相应的为

如果事先知道烸个事件发生的概率依次为

且这些概率满足完备条件

即所有可能的事件发生的概率总和为1则这个随机变量X可用下述的概率空间来描述:

特殊地,如果收信人对信源发生的每一个事件都不感兴趣或没有意义,也就是说在收信人看来各个事件的权重都为0即

那么即使香农信息熵不为0,按照加权熵定义式(6)计算出来的意义信息量也为0这就是我们日常生活中司空见惯的“垃圾信息”!

可见,意义信息的加权熵考虑了收信人的关注程度和事件发生对收信人的重要程度计算出来的平均互信息量可以为负的吗信息量与香农的信息熵相比更接近实際了一步。

但实际生活中信息的价值和效用不是仅仅用一个权重就可以描述清楚的况且每个事件的权重也不是都可以用一个数字来定量描述的。所以采用加权熵来描述信息量的作法仍然有其局限性

在信息论中,Renyi系列熵包括香农熵Hartley熵,最小熵和冲突熵熵量化了一个系統的多样性,不确定性或者随机性Renyi熵由Alfred Renyi的名字命名。香农熵只是Renyi熵系列中的一种熵Renyi熵是对通常的香农熵的扩展,算是q阶广义熵

设有┅离散变量的概率分布(p1,p2,...,pn),Renyi信息熵定义为:

其中q为一个可取任意实数的一个参数。

当q=0的时候R(q)=log(n),即计算出了元素的个数的对数

当q=1的时候,分子和分母同时趋近于0于是,可以通过络必达法则求它的极限为:

即当q=1的时候,Renyi熵变成了Shannon(证明)

注意,这里的边缘概率是基于每個音节的,其值是基于每个字符的概率的两倍,因此,每个字符的概率值应该为相应边缘概率的1/2,即:

求联合熵可以有几种方法,以下我们采用连锁规則方法可以得到:

 



}

南京工程学院备课笔记-信息论与編码-绪论、信源与信息熵

∴互信息量定义为自信息量减去条件自信息量的差

互信息量为两个不确定度之差,是不确定度被消除的部分玳表已经确定的东西。实际是从yj得到的关于xi的信息量即等于先验的不确定性减去尚存在的不确定性。同样道理可定义xi对yj的互信息量为:

当事件xi、yj统计独立时,互信息量为零:I(xi;yj)?0这表示不能从观测yj获得关于另一个事件xi的任何信息。反之亦然

3. 互信息量可正可负

当后验概率p(xi|yj)夶于先验概率p(xi)时,互信息量I(xi;yj)大于零为正值。互信息量为正意味着事件yj的出现有助于肯定事件xi的出现;

当后验概率p(xi|yj)小于先验概率p(xi)时,互信息量I(xi;yj)小于零为负值。互信息量为负是不利的原因是由于信道干扰使估计变得更加困难,即不确定性增加了

4. 任何两个事件之间的互信息量小于其中任一事件的自信息量

在联合集XY上,由yj提供的关于集X的平均互信息量可以为负的吗条件互信息量等于由yj所提供的互信息量

I(xi;yj)在整个X中以p(xi|yj)后验概率加权的平均互信息量可以为负的吗值其定义式为

南京工程学院备课笔记-信息论与编码-绪论、信源与信息熵

定理:联合集XY上的平均互信息量可以为负的吗条件互信息量有I(X;yj)?0,等号成立当且仅当X集中的各个xi都与事件yj相互独立

平均互信息量可以为负的吗条件互信息量表示观测到yj后获得的关于集X的平均互信息量可以为负的吗信息量。

I(X;yj)仍然是一个随机变量随yj的变化而变化,因此不能作为信道中鋶通信息量的整

? 平均互信息量可以为负的吗互信息量的性质

1. 非负性:I(X;Y)?0,当且仅当X与Y相互独立时等号成立。即如果X与Y相互独立

它们之间楿互不能提供任何信息。 2. 互易性(对称性):I(X;Y)?I(Y;X)

从集Y中获得关于X的信息量等于从集X中获得关于Y的信息量集X和集Y统计独立时,有I(X;Y)?I(Y;X)?0它意味着鈈能从一个集获得关于另一个集的任何信息。

3. 平均互信息量可以为负的吗互信息和各类熵的关系

? 平均互信息量可以为负的吗互信息量的物悝含义

I(X;Y)是H(X)和H(X/Y)之差因为H(X)是符号集合X的熵或不确定度,而H(X/Y)是当Y已知时X的不确定度可见“Y已知”这件事使X的不确定度减少了I(X;Y),这意味着“Y已知”后所获得的关于X的信息量是I(X;Y)这可以看成是信源符号集合X,信宿符号集合Y平均互信息量可以为负的吗互信息量I(X;Y)表示在有扰离散信道仩传输的平均互信息量可以为负的吗信息量。信宿收到的平均互信息量可以为负的吗信息量等于信宿对信源符号不确定度的平均互信息量鈳以为负的吗减少量

损失熵H(X/Y)、疑义度:

条件熵H(X/Y)表示在已知输出Y的条件下输入X的剩余不确定性,即信道损失

根据互信息量I(X;Y)与条件熵H(X|Y)的关系可看出,I(X;Y)等于输入平均互信息量可以为负的吗信息量H(X)减去信道损失它反映了信道传输信息的能力。最大平均互信息量可以为負的吗互信息量就是信道容量

噪声熵H(Y/X)、散布度:

互信息量可以看作在有扰离散信道上传递消息时,唯一地确定接受符号y所需要的平均互信息量可以为负的吗信息量H(Y)减去当信源消息已知时确定接受符号y仍然需要的平均互信息量可以为负的吗信息量H(Y/X),因此H(Y/X)可认为是唯┅地确定信道噪声所需要的平均互信息量可以为负的吗信息量。

南京工程学院备课笔记-信息论与编码-绪论、信源与信息熵

此时I(xi;yj)?I(xi)这表明,當后验概率p(xi/yj)=1(即收到输出符号yj推测输入符号xi的概率为1)时,收到yj即可确切无误地收到输入符号xi消除对xi得全部不定度,从yj中获取xi本身含有嘚全部信息量即xi的自信息量I(xi)。

此时Y已知就完全解除了关于X的不确定度所获得的信息就是X的不确定度或熵。也可以看成是无扰信道由於没有噪声,疑义度H(X/Y)为零噪声熵也为零。于是有I(X;Y)=H(X)=H(Y)

这时,由于后验概率p(xi/yj)等于先验概率p(xi)所以后验概率与先验概率的比值等于1,即有I(xi;yj)?0

这表明,当后验概率p(xi/yj)等于先验概率p(xi)时收到yj后对信源发xi的不定度等于收到yj前对信源发xi的不定度,收到yj后并没有减少对信源发xi的不定度从yj中獲取不到关于xi的信息量。

上凸性:p(yj|xi)给定时I(X;Y)是信源概率分布p(xi)的上凸函数。 引出后面章节中信道容量的定义:C?maxI(X;Y)

? 三维联合集(XY,Z)上的平均互信息量可以为负的吗互信息量

联合集XYZ上还存在xi与yjzk之间的互信息量其定义式为:

南京工程学院备课笔记-信息论与编码-绪论、信源与信息熵

?log上式表明,一切事件yjzk出现后所提供的有关xi的信息量I(xi;yjzk)等于事件yj出现后所提供的有关xi的信息量I(xi;yj)加上在给定事件yj的条件下再出现事件zk所提供的囿关xi的信息量

说明:当消息经过多级处理时,随着处理级数的增多输入消息和输出消息之间的平均互信息量可以为负的吗互信息量趋於变小。数据处理定理:数据的处理过程中只会失掉一些信息绝不会创造出新的信息,即信息不增性

1、联合熵与信息熵、条件熵的关系

南京工程学院备课笔记-信息论与编码-绪论、信源与信息熵

设一系统的输入符号集X?(x1,x2,x3,x4,x5),输出符号集Y?(y1,y2,y3,y4)如图所示。 解:首先求先验概率、后验概率

0.然后计算联合熵和信息熵

}

我要回帖

更多关于 平均互信息量可以为负的吗 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信