信息熵,Information entropy
熵的概念最早起源于物理学,用于度量一个热力学系统的无序程度。1948年,克劳德·爱尔伍德·香农将热力学中的熵引入信息论,所以信息熵也被称为香农熵 (Shannon entropy),用来度量信息量的大小。
信息量
信息(Information)是一个很抽象的概念,其定义不统一,这里简单认为信息描述了一个或多个事件。那么不严谨地说,一条信息描述的事件越多么,其信息量越大;再进一步说,当信息描述的事件发生的可能性越小时,其信息量越大。这个原理比较复杂,不过可以从直觉上进行简单的解释,因为在一个事件系统中,当一个可能性很小的事件发生时,其一般都产生于多个前提条件,因此描述了该事件的信息也可以认为携带了其前提条件的信息,因此信息量较大。举例来说,在当前时空下,有两条信息分别描述了事件A:“中国队获得2022年世界杯冠军。”和事件B:“德国队获得2022年世界杯冠军。”,显然(?)事件A的可能性很小,那么这条信息就包含了中国队经过换教练、换主力队员,国内足球运动改革等等举措以及天大的运气最终获得冠军。而描述事件B的信息就简单的多,常规操作就可以。