网友您好, 请在下方输入框内输入要搜索的题目:

题目内容 (请给出正确答案)

有一个信源,输出0和1的概率分别是0.2和0.8,求: 1)0所携带的信息量是多少?1所携带的信息量是多少? 2)这个信源的熵是多少?


参考答案和解析
P(0)=P(1)
更多 “有一个信源,输出0和1的概率分别是0.2和0.8,求: 1)0所携带的信息量是多少?1所携带的信息量是多少? 2)这个信源的熵是多少?” 相关考题
考题 信息熵即信源的()自信息量。 A、平均B、固定的C、不变的D、随机

考题 信息熵是表示信源输出后,每个消息所提供的()。 A、总信息量B、平均信息量C、个别信息量D、绝对平均信息量

考题 设一离散无记忆信源的输出由四种不同的符号组成,它们出现的概率分别为1/2、1/4、1/8、1/8。(1)此信源平均每个符号包含的信息熵多大?(2)若信源每隔10毫秒发出一个符号,那么此信源平均每秒输出的信息量为多少?

考题 一离散信源输出二进制符号,在()条件下,每个二进制符号携带1比特信息量;在()条件下,每个二进制符号携带的信息量小于1比特。

考题 离散信源输出4个不同符号,若各符号概率分别为1/2,1/4,1/8,1/8,则该信源的熵为()。A.1.5bit/sign B.1.875bit/sign C.1.75bit/sign D.1bit/sign

考题 某二进制信源各符号独立出现,若“1”符号出现的概率为3/4,则“0”符号的信息量为()bit。A.1 B.2 C.1.5 D.2.5

考题 离散信源输出5个不同符号,若各符号概率分别为1/2,1/4,1/8,1/16,1/16,则该信源的熵为()。A.1.5bit/sign B.1.875bit/sign C.2bit/sign D.1bit/sign

考题 信源发出的信号共有8种状态,如果有4种状态发生的概率全为0,其余4种状态的发生概率各为1/4,这时信源传给信宿的信息熵是()。A、4B、3C、2D、1

考题 某信息源信号共有4种状态,每种状态出现的概率分别为1/4,则某信宿收到该信源的平均信息量(信息熵)是()。A、1B、2C、3D、4

考题 如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

考题 自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

考题 利用状态极限概率和状态一步转移概率来求m阶马尔可夫信源的极限熵。

考题 某一信源,不管它是否输出符号,只要这些符号具有某些概率特性,就有信息量。

考题 信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。

考题 信源发出的信号共有8种状态,其中4种状态的发生概率为0,其余4种状态的发生概率为1/4,信源传给信宿的信息熵是()。A、2B、3C、4D、1

考题 有一二进制信源符号,0和1发生的概率分别P(0)与P(1),当()概率发生时,信源的熵达到最大值。A、P(0)P(1)B、P(0)C、P(0)=P(1)D、不能确定

考题 平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

考题 设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A、1B、1.5C、1.75D、2

考题 二元离散信源只有“0",“1”两种符号,若“0”出现概率为1/3,出现“1”的信息量是()。A、0.583(bit)B、0.585(bit)C、0.587(bit)D、0.589(bit)

考题 填空题自信息量表征信源中各个符号的不确定度,信源符号的概率越大,其自信息量越()

考题 单选题有一二进制信源符号,0和1发生的概率分别P(0)与P(1),当()概率发生时,信源的熵达到最大值。A P(0)P(1)B P(0)C P(0)=P(1)D 不能确定

考题 填空题如果符号集中任一符号出现的概率为1,则其他符号出现的概率必然为零,信源的平均信息量(熵)则为()

考题 填空题平均互信息量I(X;Y)与信源熵和条件熵之间的关系是()。

考题 单选题离散无记忆扩展信源的平均信息量H(SN)和未扩展信源平均信息量H(S)之间的关系为:( )A H(SN)=H(S)B H(SN)=(N-2)H(S)C H(SN)=(N-1)H(S)D H(SN)=NH(S)

考题 判断题信源X的概率分布为P(X)={1/2,1/3,1/6},信源Y的概率分布为P(Y)={1/3,1/2,1/6},则信源X和Y的熵相等。A 对B 错

考题 填空题设信源X包含4个不同离散消息,当且仅当X中各个消息出现的概率为()时,信源熵达到最大值,为(),此时各个消息的自信息量为()。

考题 单选题设A、B、C、D四个消息分別以概率1/4、1/8、1/8、1/2传送,信源的平均信息量为()bit。A 1B 1.5C 1.75D 2