Курсовая работа: Расчет информационных характеристик источников сообщений, сигналов и каналов

находятся безусловные вероятности p ( xk ) и p ( yk ) , которые потребуются при дальнейшем решении:

;

;

;

;

.

2) По формуле определения энтропии ( 1.4) , находятся энтропии ансамблей H ( X ) и H ( Y ) :

3) Для нахождения среднего количества информации, даваемое сообщением X при условии, что сообщение ансамбля Y уже известно, т.е. нахождение энтропии ансамбля H ( X , Y ) , используется формула определения энтропии объединённого ансамбля:

т.о., в нашем случае H ( X , Y ) будет равна

4) Итак, была найдена энтропия объединённого ансамбля. Далее по заданию требуется определить условные энтропии ансамблей H ( X / Y ) и H ( Y / X ). Формулу условной энтропии можно получить из формулы количества информации, содержащейся Y относительно X и наоборот.

1.2 Задача № 1.66

Принимаемый сигнал может иметь амплитуду (событие ) или (событие ), а также сдвиг фазы (событие ) или (событие ) режимах. Вероятности совместных событий имеют следующие значения:

; ; ;.

Вычислить количество информации получаемой о фазовом сдвиге сигнала, если станет известной его амплитуда.

Решение:

Количество информации вычисляется по формуле:

Величина I(Y,X) показывает, сколько в среднем бит информации о реализации ансамбля Y дает наблюдение реализации ансамбля Z. Подставив в эту формулу в выражение для вычисления энтропии и условной энтропии:

Учитывая, что

,

К-во Просмотров: 371
Бесплатно скачать Курсовая работа: Расчет информационных характеристик источников сообщений, сигналов и каналов