平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。
对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率()。
点击查看答案
简述离散信源和连续信源的最大熵定理。
离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。
当随即变量X和Y相互独立时,条件熵等于信源熵。
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。A、负熵B、熵C、序参量D、对称性