Курсовая работа: Определение основных характеристик цифровой системы передачи сообщ

(6.2)

На практике применяется как блочное, так и непрерывное кодирование. При блочном кодировании последовательный цифровой код символов разбивается на блоки по k символов в каждом. Затем каждому такому k–значному блоку сопоставляется n–значный блок, в котором k кодовых символов называется информационными, а r=(n-k) – корректирующими. Простейшим вариантом такого кода является код с проверкой на четность. Если число единиц в информационном блоке четное, то добавляется 0, если нечетное, то –1.

Вероятность ошибки, необнаруженной этим кодом при независимых ошибках, определяется биноминальным законом:

(6.3)

где р – вероятность искажения одного элемента кода.

В нашем случае число информационных элементов k=7, код с параметрами (n,k) = (8,7) и по формуле (6.3) имеем:


Избыточностью равномерного кода называют величину

(6.4)

для нашего кода

7. Статистическое кодирование

Цели помехоустойчивого и статистического кодирования различны. При помехоустойчивом кодировании увеличивается избыточность за счет введения дополнительных элементов в кодовые комбинации. При статистическом кодировании, наоборот, уменьшается избыточность, благодаря чему повышается производительность источника сообщений.

Количественной мерой информации является логарифмическая функция вероятности сообщения:

(7.1)

Основание логарифма чаще всего берется 2. При этом единица информации называется двоичной единицей или бит. Она равна количеству информации в сообщении, происходящем с вероятностью 0,5, т.е. таком, которое может с равной вероятностью произойти или не произойти.

В теории информации чаще всего необходимо знать не количество информации , содержащееся в отдельном сообщении, а среднее количество информации в одном сообщении, создаваемом источником сообщений.

Если имеется ансамбль (полная группа) из k сообщений с вероятностямито среднее количество информации, приходящееся на одно сообщение и называемое энтропией источника сообщений Н(х), определяется формулой

(7.2)

(7.3)

Размерность энтропии - количество единиц информации на символ. Энтропия характеризует источник сообщений с точки зрения неопределённости выбора того или другого сообщения. Неопределённость максимальна при равенстве вероятностей выбора каждого сообщения:

В этом случае

(7.4)

Вычислим энтропию данного источника:


Чтобы судить насколько близка энтропия источника к максимальной вводят понятие избыточности источника сообщений

(7.5)

К-во Просмотров: 326
Бесплатно скачать Курсовая работа: Определение основных характеристик цифровой системы передачи сообщ