信息是消息中有意义、有价值的部分。 信息量是对信息的定量描述。一个接收者接收到若干个消息,每个消息会具有不同的信息量。 一、自信息 从感知角度看,信息量的大小和接收者接收到消息后的惊奇程度有关,惊奇程度大的携带的信息量就大;惊奇程度小的,携带信息量也小。从概率论角度看,消息中携带的信息量与事件发生的概率有关,事件发生的概率越小,则消息中携带的信息量就越大。即信息量与消息出现的概率成反比。 当时,,确定事件的信息量为0. 当时,,如果时间是不可能的,则传递的信息量为无穷。 综上所述(1) 信息量的单位与所用对数的底有关。 (1)若取,信息量的单位为比特(bit或b)。 (2)若取,信息量的单位为奈特(nat)。1奈特=比特=1.443比特。 (3)若取则信息量的单位为哈特莱(Hartley)。1哈特莱=比特=3.322比特。 通常广泛使用的单位为比特,此时有(2) 称自信息。 二、离散信源的信息熵 定义:每个符号所含的平均信息量,即自信息 的统计平均值。 定义平均信息量为信源中任意一个事件发生所携带信息量 的统计平均值。 假设一个离散信源是一个由M个符号(事件)组成的符号集,即概率空间分布为 且有 用 表示消息(每个符号)所携带的信息量。 离散信源的熵: 可以证明:式(4)在 ,即每个符号等概率独立出现时,会有最大值。 (bit/符号) (4) 例题:某信息源由A、B、C、D四个符号组成,每个符号独立出现,出现的概率分别为1/4、1/4、3/16、5/16,试求该信息源中每个符号的信息量和该信源符号的平均信息量。 解:符号A和符号B的信息量 符号C的信息量 符号D的信息量 平均信息量(熵) 当信源为连续信源时,平均信息量可表示为 (5) 其中 为连续信源的概率密度函数。 |