设信源通过一干扰信道,接收符号为Y={b1,b2},信道传递矩阵为,求 (1)信源X中事件a1和a2分别含有的自信息量。 (2)收到消息bj(j=1,2)后,获得的关于ai(i=1,2)的信息量。 (3)信源X和信宿Y的信息熵。 (4)信道疑义度H(X/Y)和噪声熵H(Y/X)。 (5)接收到信息Y后获得的平均互信息量。
简答题查看答案
平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。
判断题查看答案
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
判断题查看答案
当随即变量X和Y相互独立时,条件熵等于信源熵。
判断题查看答案
互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。
填空题查看答案
在连续信源中,根据差熵、条件差熵和联合差熵的定义,证明 (1)h(X|Y)≤h(X),当且仅当X和Y统计独立时等号成立; (2)h(X1X2...XN)≤h(X1)+h(X2)+h(XN),当且仅当X1X2...XN彼此统计独立时等式成立。
简答题查看答案
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
判断题查看答案
有一个信源X,它有无穷多个可能的输出,它们出现的概率为P(Xi)=2i-1,i=1,2,3,….,这个信源的平均自信息H(X)是什么?
简答题查看答案
设离散无记忆信源S其符号集A={a1,a2,...,aq},知其相应的概率分别为(P1,P2,...,Pq)。设另一离散无记忆信源S′,其符号集为S信源符号集的两倍,A′={ai,i=1,2,...,2q},并且各符号的概率分布满足: 试写出信源S′的信息熵与信源S的信息熵的关系。
简答题查看答案