A对
B错
平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。
填空题查看答案
互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。
判断题查看答案
设信源通过一干扰信道,接收符号为Y={b1,b2},信道传递矩阵为,求 (1)信源X中事件a1和a2分别含有的自信息量。 (2)收到消息bj(j=1,2)后,获得的关于ai(i=1,2)的信息量。 (3)信源X和信宿Y的信息熵。 (4)信道疑义度H(X/Y)和噪声熵H(Y/X)。 (5)接收到信息Y后获得的平均互信息量。
简答题查看答案
有一个信源X,它有无穷多个可能的输出,它们出现的概率为P(Xi)=2i-1,i=1,2,3,….,这个信源的平均自信息H(X)是什么?
简答题查看答案
简述平均互信息量关于信源概率和信道转移概率的凸性定理。
简答题查看答案
信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。
判断题查看答案
考虑另一个几何分布的随机变量X,满足P(Xi)=P(1-P)i-1,i=1,2,3,…,这个信源的平均自信息H(X)是什么?
简答题查看答案
解释信息传输率、信道容量、最佳输入分布的概念,说明平均互信息与信源的概率分布、信道的传递概率间分别是什么关系?
简答题查看答案
设离散无记忆信源S其符号集A={a1,a2,...,aq},知其相应的概率分别为(P1,P2,...,Pq)。设另一离散无记忆信源S′,其符号集为S信源符号集的两倍,A′={ai,i=1,2,...,2q},并且各符号的概率分布满足: 试写出信源S′的信息熵与信源S的信息熵的关系。
简答题查看答案