Тест РК2

реклама
Тестовые задания по дисциплине «Теория информации и энтропии»
№1
В цифровых магнитофонах DAT частота дискретизации - 48 КГц.
Какова максимальная частота звуковых волн, которые можно точно
воспроизводить на таких магнитофонах?
А) 21 КГц
B) 22 КГц
C) 23 КГц
D) 24 КГц
E) 25 КГц
№2
Сколько бит в одном килобайте?
A) 8189
B) 8190
C) 8191
D) 8192
E) 8193
№3
Какое из соотношений несет в себе больше информации х=5 или х>3?
A) x=3
B) x<3
C) x>5
D) x=5
E) x<5
№4
Найти энтропию д.с.в. Х, заданной распределением
Х 1
2
3
4
5
6
7
8
Р 0,1 0,2 0,1 0,05 0,1 0,05 0,3 0,1
A) 2.72 бит/сим
B) 2.73 бит/сим
C) 2.74 бит/сим
D) 2.75 бит/сим
E) 2.77 бит/сим
№5
Значения д.с.в. Х1 и Х2 определяются подбрасыванием двух
идеальных монет, а д.с.в. Y равна сумме количества «гербов», выпавших при
подбрасывании этих монет. Сколько информации об Х1 содержится в Y?
A) 0.35 бит/сим
B) 0.45 бит/сим
C) 0.5 бит/сим
D) 0.55 бит/сим
E) 0.6 бит/сим
№6
Сколько информации об Х1 содержится в д.с.в. Z = ( Х1+1)²- Х2, где
независимые д.с.в. Х1 и Х2 могут с равной вероятностью принимать значение
либо 0, либо 1? Найти НХ1 и НZ. Каков характер зависимости между Х1 и Z?
A) I(Z,X1)=I(X1,X1)=НХ1=0.5 бит/сим; НZ=1 бит/сим
B) I(Z,X1)=I(X1,X1)=НХ1=1 бит/сим; НZ=2 бит/сим
C) I(Z,X1)=I(X1,X1)=НХ1=1.5 бит/сим; НZ=3 бит/сим
D) I(Z,X1)=I(X1,X1)=НХ1=2 бит/сим; НZ=4 бит/сим
E) I(Z,X1)=I(X1,X1)=НХ1=2.5 бит/сим; НZ=5 бит/сим
№7
Д.с.в. Х1, Х2 – зависимы и распределены также как и соответствующие
д.с.в. из предыдущей задачи. Найти I(Х1, Х2), если совместное распределение
вероятностей Х1 и Х2 описывается с законом
Х1
0
0
1
1
Х2
0
1
0
1
р
1/3 1/6 1/6 1/3
A) I(X1,X2)= 0.07 бит/сим
B) I(X1,X2)= 0.08 бит/сим
C) I(X1,X2)= 0.09 бит/сим
D) I(X1,X2)= 1 бит/сим
E) I(X1,X2)= 0.01 бит/сим
№8
Д.с.в. Х1 и Х2 определяются подбрасыванием двух идеальных
тетраэдров, грани которых помечены числами от 1 до 4. Д.с.в. Y равна сумме
чисел, выпавших при подбрасывании этих тетраэдров, т.е. Y=Х1+Х2.
Вычислить І(Х1, Ү), Н Х1 и Н Ү.
A) І(Х1 Ү)=0.65; Н Х1=2; Н Ү=2.63
B) І(Х1,Ү)=0.66; Н Х1=2; Н Ү=2.65
C) І(Х1,Ү)=0.66; Н Х1=2; Н Ү=2.64
D) І(Х1,Ү)=0.67; Н Х1=1; Н Ү=2.67
E) І(Х1,Ү)=0.66; Н Х1=3; Н Ү=2.68
№9
Подсчитать сколько информации об Х1 содержится в д.с.в. Z= Х1 * Х2, а
также НZ. Д.с.в. Х1 и Х2 берутся из предыдущего упражнения.
A) I(Z, Х1)=1.08; НZ=3.05
B) I(Z, Х1)=1.09; НZ=3.03
C) I(Z, Х1)=1.01; НZ=3.06
D) I(Z, Х1)=1.07; НZ=3.08
E) I(Z, Х1)=1.08; НZ=3.08
№10
Д.с.в. Х1 может принимать три значения – 1, 0 и 1 с равными
вероятностями. Д.с.в. Х2 с равными вероятностями может принимать
значения 0, 1 и 2. Х1 и Х2 - независимы. Y= Х1² + Х2. Найти I (Х1, Ү), I (Х2, Ү),
НХ1, НХ2, НҮ.
A) I (Х1, Ү)=0.3; I(X2,Y)=0.97;НХ1= НХ2=1.25; НҮ=1.87
B) I (Х1, Ү)=0.31; I(X2,Y)=0.91; НХ1= НХ2=1.57; НҮ=1.99
C) I (Х1, Ү)=0.32; I(X2,Y)=0.97;НХ1= НХ2=1.56; НҮ=1.77
D) I(Х1,Ү)=0.31; I(X2,Y)=0.97;НХ1= НХ2=1.58; НҮ=1.89.
E)I(Х1,Ү)=0.31; I(X2,Y)=0.97;НХ1=НХ2=1.58;НҮ=1.88
№11
Найти энтропии д.с.в. Х, Ү, Z и количество информации, содержащейся
в Z = Х + Y относительно Ү. Х и Y - независимы и задаются
распределениями
Х 0 1 3 4
Y -2 2
Р 1/8 1/8 1/4 1/2
A) HX=1.25; HY=0.85; HZ=2.27; I(X,Y)=0.76
B) HX=1.74; HY=0.55; HZ=2.37; I(X,Y)=0.75
C) HX=1.24; HY=0.75; HZ=2.57; I(X,Y)=0.74
D) HX=1.75; HY=0.95; HZ=2.47; I(X,Y)=0.73
E) HX=1.75; HY=0.95; HZ=2.47; I(X,Y)=0.72
№12
р 3/8 5/8
Найти энтропию д.с.в. Х и среднюю длину каждого из приведенных
кодов для этой д.с.в.
X
p
code1(X)
code2(X)
code3(X)
code4(X)
1
0.4
000
0
00
0
3
0.2
001
100
01
10
4
0.1
010
101
110
1110
5
0.2
011
110
10
110
6
0.1
111
111
111
1111
А) ML1(X)=3; ML2,3,4=2.2; HX=2.12.
Б) ML1(X)=2; ML2,3,4=2.3; HX=2.2.
С) ML1(X)=1; ML2,3,4=2.4; HX=2.15.
Д) ML1(X)=4; ML2,3,4=2.8; HX=2.12.
Е) ML1(X)=5; ML2,3,4=2; HX=2.12.
№13
Д.с.в. Х равна количеству «гербов», выпавших на двух идеальных
монетах. Найти энтропию Х. Придумать минимальный код для Х, вычислить
его среднюю длину и обосновать его минимальность.
A) ML(X)=HX=1.2
B) ML(X)=HX=2
C) ML(X)=HX=1.5
D) ML(X)=HX=3
E) ML(X)=HX=1
№14
Д.с.в. Х задана распределением Р(X = 2n) = 1/2n, n = 1,2… Найти
энтропию этой д.c.в. Придумать минимальный код для Х, вычислить его
среднюю длину и обосновать его минимальность.
A) ML(X)=HX=2;
B) ML(X)=HX=2;
C) ML(X)=HX==1;
D) ML(X)=HX==3;
E) ML(X)=HX==4;
№15
Про д.с.в. Х известно, что что ее значениями являются буквы
кириллицы. Произведен ряд последовательных измерении Х , результат
которых –“ТЕОРИЯИНФОРМАЦИИ”. Составить на основании этого
результата приблизительный закон распределения вероятности этой д.с.в. и
оценить среднюю длину кодов для Х.
A) ML(X)≥HX=3.26
B) ML(X) ≥HX=3.25
C) ML(X) ≥HX=3.27
D) ML(X) ≥HX=3.28
E) ML(X) ≥HX=3.29
№16
Вычислить inf(s) и cont(s) предложения s1, про которое известно, что
оно достоверно на 50%, и предложения s2, достоверно которого 25%.
A) inf(s1)=1;cont(s1)=2; inf(s2)=0.5; cont(s2)=0.75
B) inf(s1)=1;cont(s1)=3; inf(s2)=0.35 cont(s2)=0.75
C) inf (s1)=4;cont(s1)=5; inf(s2)= 0.45;cont(s2)= 0.65
D) inf(s1)=2;cont(s1)=1; inf(s2)= 0.25;cont(s2)=0.95
E) inf(s1)=1;cont(s1)=3; inf(s2)= 0.5;cont(s2)=0.85
№17
Вычислить ML1(X) для блочного кода Хаффмена для Х. Длина блока -2
бита. Д.с.в. Х берется из последнего примера.
A) 1.58
B) 1.56
C) 1.55
D) 1.59
E) 1.60
№18
Вычислить HX и ML(X )для кодов Хаффмена и Шеннона-Фэно для Х.
Д.с.в Х задается следующим распределением вероятностей:
X
р
1
2
3
4
5
7/18 1/6 1/6 1/6 1/9
A) Код Хаффмена- ML(X)=2.21;HX=2.15 ;Код Шеннона-Фэно-ML(X)=2.28
B) Код Хаффмена- ML(X)=2.22;HX=2.16; Код Шеннона-Фэно-ML(X)=2.27
C) Код Хаффмена- ML(X)=2.22;HX=2.17;Код Шеннона-Фэно-ML(X)=2.28
D) Код Хаффмена- ML(X)=2.2;3HX=2.18; Код Шеннона-Фэно-ML(X)=2.21
E) Код Хаффмена- ML(X)=2.24;HX= 2.19;Код Шеннона-Фэно-ML(X)=2.23
№19
Вычислить среднее количество бит на единицу сжатого сообщения о
значении каждой из д.с.в. , из заданных следующими распределениями
вероятностей, при сжатии методами Шеннона-Фэно, Хаффмена и
арифметическим.
Х1 1
Р 1/3
2
3
1/3 1/6
4
1/6
Х3 1
р 0.1
4
9
0.1 0.1
16
0.3
Х2 1
р 0.2
25
0.1
36 49
0.1 0.2
2
5
0.1 0.3
Х4
р
6
7
0.25 0.15
-2
1/3
-1 0
1/4 1/5
1
1/6
2
1/20
A) Шеннона-Фэно, Хаффмена: ML1(X1)=2
бит/сим.; ML1(X2)=2.25 бит/сим.; ML1(X3)=2.7 бит/сим.; ML1(X4)=213∕60;
Арифметический: ML1(X1)=15/6 бит/сим.; ML1(X2)=2.05 бит/сим.;
ML1(X3)=2.3 бит/сим.; ML1(X4)=21/60 бит/сим.
B) Шеннона-Фэно, Хаффмена: ML1(X1)=12 бит/сим.; ML1(X2)=2.95
бит/сим.; ML1(X3)=92.7 бит/сим.; ML1(X4)=213∕60; Арифметический:
ML1(X1)=15/6 бит/сим.; ML1(X2)=2.05 бит/сим.; ML1(X3)=2.3 бит/сим.;
ML1(X4)=621/60 бит/сим.
C) Шеннона-Фэно, Хаффмена: ML1(X1)=12 бит/сим.; ML1(X2)=2.06
бит/сим.; ML1(X3)=6.7 бит/сим.; ML1(X4)=213∕60; Арифметический:
ML1(X1)=15/6 бит/сим.; ML1(X2)=5.05 бит/сим.; ML1(X3)=2.3 бит/сим.;
ML1(X4)=81/60 бит/сим.
D) Шеннона-Фэно, Хаффмена: ML1(X1)=3 бит/сим.; ML1(X2)=9 бит/сим.;
ML1(X3)=92.7 бит/сим.; ML1(X4)=213∕60; Арифметический: ML1(X1)=15/6
бит/сим.; ML1(X2)=5 бит/сим.; ML1(X3)=2.3 бит/сим.; ML1(X4)=8 бит/сим.
E) Шеннона-Фэно, Хаффмена: ML1(X1)=5 бит/сим.; ML1(X2)=7 бит/сим.;
ML1(X3)=6 бит/сим.; ML1(X4)=6; Арифметический: ML1(X1)=15/6 бит/сим.;
ML1(X2)=5 бит/сим.; ML1(X3)=2.3 бит/сим.; ML1(X4)=621/60 бит/сим.
№20
Вычислить длины кодов Хаффмена и арифметического для сообщения
AAB, полученного от д.с.в. Х со следующим распределением вероятностей
Р(X=A)=1/3, P(X=B)=2/3.
A) L хаффмена=3; L арифметический=4
B) L хаффмена=2; L арифметический=3
C) L хаффмена=3; L арифметический=5
D) L хаффмена=4; L арифметический=7
E) L хаффмена=3; L арифметический=6
Скачать