在信息论中,熵(entropy)用于表示是接收的每条消息中包含的信息的平均量,也可以理解成随机变量的不确定性(这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息)1
特性
设X是一个有限状态的离散型随机变量,其概率分布为
那么随机变量X的熵定义为
熵越大,那么随机变量的不确定性就越大
Nov 26, 2023, 1 min read
在信息论中,熵(entropy)用于表示是接收的每条消息中包含的信息的平均量,也可以理解成随机变量的不确定性(这里的想法是,比较不可能发生的事情,当它发生了,会提供更多的信息)1
设X是一个有限状态的离散型随机变量,其概率分布为
那么随机变量X的熵定义为
熵越大,那么随机变量的不确定性就越大