Исследование источника дискретной информации

Автор работы: Пользователь скрыл имя, 20 Ноября 2013 в 20:44, лабораторная работа

Краткое описание

Длина сообщения в эффективном кодировании меньше, чем в равномерном, следовательно, увеличивается скорость передачи информации. Так же энтропия источника становится больше, что обуславливает большее количество информации на один символ, и коэффициент избыточности уменьшается, чем характеризуется меньшей потери информации.

Вложенные файлы: 1 файл

ТПС лаб 1.docx

— 31.64 Кб (Скачать файл)

Федеральное агентство железнодорожного транспорта

Уральский государственный университет  путей сообщения

 

Кафедра «Связь»

 

 

 

 

 

 

 

Лабораторная работа №1

 

по дисциплине «Теория передачи сигналов»

 

на тему «Исследование источника дискретной информации»

 

 

 

 

 

 

 

 

 

Проверил                                                   Выполнил

преподаватель                                              студент гр. СОа 311

Масленко Н.В.                                             Рычков Д.А.

 

 

 

 

 

 

 

 

 

 

 

 

 

Екатеринбург,

2013

Исследование  источника дискретной информации.

Вариант – 16.

Задание 1.

Сообщение: 3343334331144414133341334433343341444413444144334113333131431434331343313344413331444431433434333311

  1. LA = 100
  2. mA = 3
  3. Определим вероятность появления символов P(ai):

ai

N(ai)

P(ai)

1

20

0,2

3

45

0,45

4

35

0,35


 

  1. Определим тип источника:

aiaj

N(aiaj)

P(aiaj)

P(ai)P(aj)

11

3

0,03

0,04

13

9

0,09

0,09

14

8

0,08

0,07

31

9

0,09

0,09

33

23

0,23

0,2

34

13

0,13

0,16

41

8

0,08

0,07

43

13

0,13

0,16

44

14

0,14

0,12


 

Т.к. вероятность появления совместных символов не равна вероятности произведения этих символов, то данный источник со статическими связями (марковский).

  1. Найдем энтропию источника:

H(A/A’) = –P1[P11log2P11 + P13log2P13 + P14log2P14] – P3[P31log2P31 + P33log2P33+ + P34log2P34] –P4[P41log2P41 + P43log2P43 + P44log2P44] = –0,2[0,03log2(0,03) + +0,09log2(0,09) + 0,08log2(0,08)] –0,45[0,09log2(0,09) + 0,23log2(0,23) + +0,13log2(0,13)] – 0,35[0,08log2(0,08) + 0,13log2(0,13) + 0,14log2(0,14)] = =0,2[–0,15 – 0,31 – 0,29] –0,45[–0,31 –0,49 –0,38] –0,35[–0,29–0,3–0,39] = = 0,15 + 0,53 + 0,37 = 1,05 .

  1. Найдем минимальное число двоичных символов необходимых для кодирования данного сообщения:

Поскольку общее количество информации в сообщении после кодера не изменяется, то должно выполняться равенство:

H(A)LA = H(A)maxLAmin;

H(A)max = log2(ma) = log23 = 1,58;

LAmin = = 66,2.

  1. Найдем избыточность источника информации:

r = 1 – = 1 – = 0,34.

  1. Составим равномерный двоичный код:

1 – 00

3 – 01

4 – 10

LA’ = 200.

Составим эффективный двоичный код по методу Шеннона-Фано:

ai

P(ai)

Эл. код. комб.

Кодовая комб.

3

0,45

0

 

0

4

0,35

1

1

0

10

1

0,2

1

11


 

 

 

Составим заданное сообщение в двоичный эффективный код:

001000010001111101010111011000101100101000010001011101010101101101010111010001011110000110111001110010001101000110010101011000111010101001110001001000001111

LA” = 155.

Сравним это  значение со значением равномерного двоичного кода:

LA” = 155 < LA’ = 200.

  1. Найдем остаточную избыточность:

ai

N(ai)

P(ai)

0

79

0,51

1

76

0,49


 

aiaj

N(aiaj)

P(aiaj)

P(ai)P(aj)

00

36

0,23

0,26

01

44

0,28

0,25

10

44

0,28

0,25

11

31

0,2

0,24


 

H(A/A’) = –P(0)[P(00)log2P(00) + P(01)log2P(01)] – P(1)[P(10)log2P(10) + +P(11)log2P(11)] = –0,51[–0,45 – 0,52] –0,49[–0,51 – 0,46] = 0,49 + 0,48 = =0,97 .

H(A)max = log2(ma) = log22 = 1;

LAmin = = 150,3;

r = 1 –  = 1 – = 0,03.

 

 

 

Задание 2.

Рычков_Денис_Александрович_

 LA = 27.

mA = 14.

Равномерное кодирование:

ai

N(ai)

P(ai)

2n14, n = 4

Р

2

0,07

0000

Ы

1

0,03

0001

Ч

2

0,07

0010

К

2

0,07

0011

О

2

0,07

0100

В

2

0,07

0101

_

3

0,11

0110

Д

2

0,07

0111

Е

2

0,07

1000

Н

2

0,07

1001

И

2

0,07

1010

С

2

0,07

1011

А

2

0,07

1100

Л

1

0,03

1101


 

Составим сообщение в равномерном  кодировании:

000000010010001101000101011001111000100110101011011011001101100000111011110010010111000001000101101000100110

LA’ = 108

mA = 2

ai

N(ai)

P(ai)

0

60

0,56

1

48

0,44


 

aiaj

N(aiaj)

P(aiaj)

P(ai)P(aj)

00

32

0,3

0,31

01

28

0,26

0,25

10

28

0,26

0,25

11

20

0,18

0,19


 

Источник со статическими связями.

H(A/A’) = –P(0)[P(00)log2P(00) + P(01)log2P(01)] – P(1)[P(10)log2P(10) + +P(11)log2P(11)] = –0,56[–0,52 – 0,5] –0,44[–0,5 – 0,44] = 0,57 + 0,41 = =0,98 .

H(A)max = log2(ma) = log22 = 1;

LAmin = = 105,8;

r = 1 – = 1 – = 0,02.

Составим эффективный двоичный код:

ai

P(ai)

Эл. код. комб.

Кодовая комб.

_

0,11

0

0

0

0

0

0

0

0

0

0

   

000

Р

0,07

1

1

0

0010

Ч

0,07

1

0011

К

0,07

1

1

1

0

 

010

О

0,07

1

1

0

0110

В

0,07

1

0111

Д

0,07

1

1

1

1

1

1

1

1

0

0

0

0

 

100

Е

0,07

1

1

0

1010

Н

0,07

1

1011

И

0,07

1

1

1

1

1

0

0

0

1100

С

0,07

1

1101

А

0,07

1

1

1

0

1110

Ы

0,03

1

1

0

11110

Л

0,03

1

11111


 

Составим сообщение в эффективный  двоичный код:

001011110001101001100111000100101010111100110100011101111110100101101111010111000010011001111000011000

LA” = 103.

mA = 2.

ai

N(ai)

P(ai)

0

48

0,47

1

55

0,53


 

aiaj

N(aiaj)

P(aiaj)

P(ai)P(aj)

00

23

0,22

0,22

01

25

0,24

0,25

10

25

0,24

0,25

11

30

0,29

0,28


 

H(A/A’) = –P(0)[P(00)log2P(00) + P(01)log2P(01)] – P(1)[P(10)log2P(10) + +P(11)log2P(11)] = –0,47[–0,48 – 0,49] –0,53[–0,49 – 0,52] = 0,46 + 0,53 = =0,99 .

H(A)max = log2(ma) = log22 = 1;

LAmin = = 101,97;

r = 1 – = 1 – = 0,01.

 

 

 

Выводы по работе

Длина сообщения в эффективном  кодировании меньше, чем в равномерном, следовательно, увеличивается скорость передачи информации. Так же энтропия источника становится больше, что обуславливает большее количество информации на один символ, и коэффициент избыточности уменьшается, чем характеризуется меньшей потери информации.


Информация о работе Исследование источника дискретной информации