填空题

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

正确答案

(X;Y)=H(X)-H(X/Y)

答案解析

相似试题
  • 设信源通过一干扰信道,接收符号为Y={b1,b2},信道传递矩阵为,求 (1)信源X中事件a1和a2分别含有的自信息量。 (2)收到消息bj(j=1,2)后,获得的关于ai(i=1,2)的信息量。 (3)信源X和信宿Y的信息熵。 (4)信道疑义度H(X/Y)和噪声熵H(Y/X)。 (5)接收到信息Y后获得的平均互信息量。

    简答题查看答案

  • 平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

    判断题查看答案

  • 互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。

    判断题查看答案

  • 当随即变量X和Y相互独立时,条件熵等于信源熵。

    判断题查看答案

  • 互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

    填空题查看答案

  • 在连续信源中,根据差熵、条件差熵和联合差熵的定义,证明 (1)h(X|Y)≤h(X),当且仅当X和Y统计独立时等号成立; (2)h(X1X2...XN)≤h(X1)+h(X2)+h(XN),当且仅当X1X2...XN彼此统计独立时等式成立。

    简答题查看答案

  • 信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

    判断题查看答案

  • 有一个信源X,它有无穷多个可能的输出,它们出现的概率为P(Xi)=2i-1,i=1,2,3,….,这个信源的平均自信息H(X)是什么?

    简答题查看答案

  • 设离散无记忆信源S其符号集A={a1,a2,...,aq},知其相应的概率分别为(P1,P2,...,Pq)。设另一离散无记忆信源S′,其符号集为S信源符号集的两倍,A′={ai,i=1,2,...,2q},并且各符号的概率分布满足: 试写出信源S′的信息熵与信源S的信息熵的关系。

    简答题查看答案