Контрольная работа: Энтропия сигналов
При отсутствии помех вероятность получения правильного сигнала станет безусловной, а условная энтропия будет равна нулю.
Для исследования канала со стороны приемника (известен полученный сигнал) - условная вероятность p(xi /yi ) означает вероятность того, что при приеме сообщения yi было передано сообщение x i .
Канальная матрица имеет вид, приведенный в табл. 2.
Таблица 2
Y X | y1 y2 ym |
x1 x2 xm |
p(x1 /y1 ) p(x1 /y2 ) . . . p(x1 /ym ) p(x2 /y1 ) p(x2 /y2 ) . . . p(x2 /ym ) p(xm /y1 ) p(xm /y2 ) . . . p(xm /ym ) |
Вероятности расположения на диагонали характеризует вероятность правильной передачи, остальные – ложной. Для равновероятных сигналов на входе приемника общая условная энтропия вычисляется по формуле:
. (6)
Для не равновероятных сигналов на входе приемника общая условная энтропия вычисляется по формуле:
( 17)
Частная условная энтропия, определяющая потери, приходящиеся на долю сигнала y1 , равна:
. (8)
Пример 1. Вычислить энтропию источника сообщений, выдающего два символа 0 и 1 с вероятностями p(0)=3/4, p()=1/4 и условными вероятностями: p(0/0)=2/3, p(/0)=1/3, p(0/1)=1, p(/1)=0 , т. е. после 1 всегда идет 0.
Решение: Для случая взаимозависимых, не равновероятных элементов энтропия равна:
Пример 2. Определить энтропию источника сообщений, если вероят-ности появлений символов на входе приемника, равны: P(b1 )=0,1; P(b2 )=0,3; P(b3)=0,4, P(b4 )=0,2 а канальная матрица имеет вид:
P(a/b) =.
Сумма вероятности при одноименных условиях равна
Решение: Определим энтропию источника
.
= 0,1 × 0,99+0,3 × 0,2+0,4 × 0=0,105;
= 0,1 × 0,01+0,3 × 0,98+0,4 × 0,01+0, × 2 × 0,01=0,301;