网友您好, 请在下方输入框内输入要搜索的题目:

题目内容 (请给出正确答案)

平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。


参考答案

更多 “平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。” 相关考题
考题 如果有两个信源X、Y,在事件X或Y产生的情况下,另一事件Y或X的产生还保留着平均不确定性或疑义度,这可以用()来表示。 A、条件熵B、信息熵C、联合熵D、互信息熵

考题 信息熵即信源的()自信息量。 A、平均B、固定的C、不变的D、随机

考题 信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

考题 熵压缩法中的熵定义为()。 A.冗余B.数据C.平均信息量D.信息量

考题 互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

考题 如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

考题 对于均值为0,平均功率受限的连续信源,信源的冗余度决定于平均功率的限定值P和信源的熵功率()。

考题 简述离散信源和连续信源的最大熵定理。

考题 离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。

考题 当随即变量X和Y相互独立时,条件熵等于信源熵。

考题 信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

考题 互信息量I(X;Y)表示收到Y后仍对信源X的不确定度。

考题 一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。A、负熵B、熵C、序参量D、对称性

考题 离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

考题 条件熵和无条件熵的关系是:()A、H(Y/X)<H(Y)B、H(Y/X)>H(Y)C、H(Y/X)≤H(Y)D、H(Y/X)≥H(Y)

考题 平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。

考题 判断题当随即变量X和Y相互独立时,条件熵等于信源熵。A 对B 错

考题 填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

考题 判断题平均互信息量I(X;Y)对于信源概率分布p(xi)和条件概率分布p(yj/xi)都具有凸函数性。A 对B 错

考题 判断题信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。A 对B 错

考题 填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

考题 单选题一个系统有序程度越高,则熵就越小,所含的信息量就越大;反之,无序程度越高,则熵就越大,信息量就越小。信息和熵是互补的,信息就是()。A 负熵B 熵C 序参量D 对称性

考题 填空题互信息I(X;Y)与信息熵H(Y)的关系为:I(X;Y)()(大于、小于或者等于)H(Y)。

考题 填空题离散平稳无记忆信源X的N次扩展信源的熵等于离散信源X的熵的()。

考题 判断题离散无记忆序列信源中平均每个符号的符号熵等于单个符号信源的符号熵。A 对B 错