信息的概念是什么 什么叫信息( 二 )


所以,信息量本身其实就是信息源的信息熵 。
信息熵因此,只要我们能计算出信息熵,那么我们就能计算出具体的信息量 。
具体怎么算?实际上,香农从热力学中找到了灵感 。在热力学中,熵用来表示:
系统的无序状态(不确定性) 。
举个最常见的例子,如果往水里滴一点墨水,墨水就会和水混合,整个杯子里无序状态的数量就会增加(因为变得混乱) 。在这里,我们可以把这个杯子里的水看作一个系统 。
在物理学中,测量一个系统的混乱程度实际上可以通过计算整个系统的状态来建立 。
可能性越多,不确定性越大;当状态数保持不变时,如果每个状态的可能性都相同,那么不确定性就会很大 。
因此,科学家给出了一个计算系统状态数的公式(不看也没关系):

事实上,信息熵实际上代表了一个系统(信息源)的不确定性(信息熵) 。
受热力学启发,香农还给出了一个类似的计算信息熵(信息量)的公式:

具体怎么用?让我们回到抛硬币的例子:
抛一枚理想硬币,信息熵为log2(2/1) = 1比特;
抛出两个理想硬币,信息熵为log2(4/1) = 2位 。
自从信息论提出以来,科学家们一直在思考一个问题,这个世界是什么?我们都知道物质是由原子组成的,那么世界是原子的吗?
但我们也需要知道,原子的排列构成了世界,而排列本身就是信息,所以原子是通过交换“比特”有序排列的,这就意味着在某种程度上,世界是逐比特的 。

推荐阅读