Курсовая работа: Определение основных характеристик цифровой системы передачи сообщ
Если все сообщения имеют одинаковую длительность t, то производительность
. (7.6)
если же различные элементы сообщения имеют разную длительность, то в приведенной формуле надо учитывать среднюю длительность, равную математическому ожиданию величины t:
(7.7)
а производительность источника будет равна
(7.8)
Максимально возможная производительность дискретного источника будет равна
. (7.9)
для двоичного источника, имеющего одинаковую длительность элементов сообщения (k=2,) имеем
(бит/с).
Сопоставив формулы (7.5) и (7.8) получим
(7.10)
Увеличить производительность можно путем уменьшения длительности элементов сообщения, однако возможность эта ограничивается полосой пропускания канала связи. Поэтому производительность источника можно увеличить за счет более экономного использования полосы пропускания, например, путем применения сложных многоуровневых сигналов.
Основой статистического (оптимального) кодирования сообщений является теорема К. Шеннона для каналов связи без помех. Кодирование по методу Шеннона-Фано-Хаффмена называется оптимальным. так как при этом повышается производительность дискретного источника, и статистическим, так как для реализации оптимального кодирования необходимо учитывать вероятности появления на выходе источника каждого элемента сообщения (учитывать статистику сообщений). Идея такого кодирования заключается в том, что применяя неравномерный неприводимый код, наиболее часто встречающиеся сообщения (буквы или слова) кодируются короткими комбинациями этого кода, а редко встречающиеся сообщения кодируются более длительными комбинациями.
Перед осуществлением статистического кодирования образуем трехбуквенную комбинацию, состоящую из элементов двоичного кода 1 и 0. Число возможных кодовых слов определяется выражением m=kn , где k- алфавит букв первичного сообщения, n- длина кодового слова
Вероятность передачи “1” в соответствии с вариантом р(1)=0,15, р(0)=0,85
Таблица7.1
Кодовая комбинация | Мнемоническое обозначение | Р(ai ) |
000 | a1 | 0,614125 |
001 | a2 | 0,108375 |
010 | a3 | 0,108375 |
011 | a4 | 0,019125 |
100 | a5 | 0,108375 |
101 | a6 | 0,019125 |
110 | a7 | 0,019125 |
111 | a8 | 0,003375 |
å | 1 |
Кодовоые комбинации а i | Вероятность передачи информации | График кода Хаффмана | код | ||||||||||||||||||||||||||||||||||||||||||||
а 1 | 0,614125 |
| 1 | ||||||||||||||||||||||||||||||||||||||||||||
a2 | 0,108375 | 011 | |||||||||||||||||||||||||||||||||||||||||||||
а 3 | 0,108375 | 010 | |||||||||||||||||||||||||||||||||||||||||||||
а 5 | 0,108375 | 001 | |||||||||||||||||||||||||||||||||||||||||||||
a4 | 0,019125 | 00011 | |||||||||||||||||||||||||||||||||||||||||||||
а 6 | 0,019125 | 00010 | |||||||||||||||||||||||||||||||||||||||||||||
а 7 | 0,019125 | 00001 | |||||||||||||||||||||||||||||||||||||||||||||
а 8 | 0,003375 | 00000 |
Определим среднюю длину кодовой комбинации Хаффмана. Из рисунка видно, что неравномерные комбинации кодового кода имеют длительностью Т, 3Т, 5Т;
Отсюда
т.к. кодовая комбинация содержит информацию о трёх информационных элементах, то рассчитаем для одного:
τ’= τ/3 = 9,46625/3 = 3,156 мкс;
отсюда видно что средняя длина элемента сообщения сократилась по сравнению с первоначальной в 5,0 мкс/3,156 мкс ≈1,58 раза
Производительность источника применяя код Хаффмана равна:
8. Пропускная способность двоичного канала связи
Вычислим пропускную способность двоичного канала связи.