网友您好, 请在下方输入框内输入要搜索的题目:

题目内容 (请给出正确答案)

设一信源的输出由256个不同符号组成,其中32个出现的概率为1/64,其余224个出现的概率为1/448。信息源每秒发送4800个符号,且每个符号彼此独立。试求? (1)该信源发送信息的平均速率 (2)该信源最大可能的信息速率


参考答案和解析
已知码元速率R B =1000Baud,所以平均信息速率为 R b = RBN ×H(x)=1000×6.404=6404(bit/s) [知识点窍] 信息速率:R b =R BN ·H(x)(bit/s)。 [逻辑推理] 直接利用信息源的平均信息量,计算得出每个字母的平均信息量H(x);将每个字母的平均信息量H(x)与码元速率R B ;相乘,得出平均信息速率R b 。
更多 “设一信源的输出由256个不同符号组成,其中32个出现的概率为1/64,其余224个出现的概率为1/448。信息源每秒发送4800个符号,且每个符号彼此独立。试求? (1)该信源发送信息的平均速率 (2)该信源最大可能的信息速率” 相关考题
考题 某信源由A、B、C和D四个符号组成,设每个符号独立等概出现。

考题 设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

考题 假设信源是由q个离散符号S1,S2,…,Si…,sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足ΣP(Si)=1。那么符号Si含有的信息量I(Si)等于(38),单位是(39)。A.-logqP(Si)B.logqP(Si)C.-log2P(Si)D.log2P(Si)

考题 假设信源是由q个离散符号S1,S2,…,Si,…Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号出现的概率为P(Si),并满足∑P(Si)=1。那么符号Si含有的信息量I(Si)等于( ),单位是( )A. –logq P(Si)B. logq P(Si)C. -log2 P(Si)D. log2 P(Si)@@@SXB@@@A.比特B.信息熵C. dBD.无单位

考题 假设信源是由q个离散符号S1,S2,…,S1…,Sq所组成的符号集合,集合中的每个符号是独立的,其中任一个符号Si出现的概率为P(Si),并满足∑P(Si)=1。那么符号 Si含有的信息量I(si)等于(31),单位是(32)。A.-logqP(Si)B.logqP(Si)C.-log2P(Si)D.log2P(Si)

考题 如果在已知发送独立的符号中,符号“E”出现的概率为0.125,则符号“E”所包含的信息量为()。A.1bit B.2bit C.3bit D.4bit

考题 离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。A.1.5bit/sign B.1.875bit/sign C.1.75bit/sign D.1bit/sign

考题 某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。A.1 B.2 C.1.5 D.2.5

考题 离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。A.1.5bit/sign B.1.875bit/sign C.2bit/sign D.1bit/sign

考题 当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。()

考题 如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

考题 自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

考题 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

考题 一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。

考题 某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A、400b/sB、100b/sC、300b/sD、200b/s

考题 无失真编码定理确定的是()。A、每个信源符号的最小平均码字长度B、每个信源符号的最大平均码字长度C、各个信源符号的码字长之和的最小值D、各个信源符号的码字长之和的最大值

考题 当图像信息源中各符号出现的概率相等时,信源的信息熵最小。

考题 二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)

考题 判断题一离散信源由A,B,C,D四个符号组成,它们出现的概率分别为1/2,1/4,且每个符号的出现都是独立的,消息{AAAAABBACCDDB}熵为2bit/符号。╳81.信息论的创始人是维纳。A 对B 错

考题 填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

考题 单选题离散信源输出五个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的值为()A 1.800bit/符号B 1.825bit/符号C 1.850bit/符号D 1.875bit/符号

考题 判断题当离散信源中每个符号等概出现,而且各符号的出现为统计独立时,该信源的平均信息量最大。A 对B 错

考题 填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 单选题某信源由4个不同符号组成,每个符号出现的概率相同,信源每秒发出100个符号,则该信源的平均信息速率为()。A 400b/sB 100b/sC 300b/sD 200b/s

考题 单选题某信源的符号集由A、B、C、D和E组成,设每一符号独立出现,其出现概率分别为1/4、1/8、1/8、3/16和5/16,平均信息量为()bit/符号。A 2.20B 2.23C 2.44D 2.50

考题 判断题当图像信息源中各符号出现的概率相等时,信源的信息熵最小。A 对B 错

考题 单选题设一信息源的输出由128个不同符号E组成,其中16个出现的概率为1/32,其余112个出现的概率为1/224。信息源每秒发出1000个符号,且每个符号彼此独立。则该信息源的平均信息速率()A 6417bit/sB 6.417bit/sC 64.17bit/sD 641.7bit/s