设离散无记忆信源S其符号集A={a1,a2,...,aq},知其相应的概率分别为(P1,P2,...,Pq)。设另一离散无记忆信源S′,其符号集为S信源符号集的两倍,A′={ai,i=1,2,...,2q},并且各符号的概率分布满足: 试写出信源S′的信息熵与信源S的信息熵的关系。
简答题查看答案
单符号离散信源的自信息和信源熵都是一个确定值。
判断题查看答案
设有一离散无记忆信源,其概率空间为 (1)求每个符号的自信息量; (2)信源发出一消息符号序列为,求该序列的自信息量和平均每个符号携带的信息量。
简答题查看答案
对具有8个消息的单符号离散无记忆信源进行4进制哈夫曼编码时,为使平均码长最短,应增加()个概率为0的消息。
填空题查看答案
某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。
判断题查看答案
简述最大离散熵定理。对于一个有m个符号的离散信源,其最大熵是多少?
简答题查看答案
已知离散信源,某信道的信道矩阵为 试求: (1)“输入a3,输出b2”的概率; (2)“输出b4”的概率; (3)“收到b3的条件下推测输入a2”的概率。
简答题查看答案
简述随机事件的不确定度和它的自信息量之间的关系及区别,单符号离散信源的数学模型,自信息量、条件自信息量、联合自信息量的含义。
简答题查看答案
单符号离散信源一般用随机变量描述,而多符号离散信源一般用()描述。
填空题查看答案