Учебное пособие: Расчет информационных характеристик дискретного канала
Кортеж упорядоченных уникальных символов – это упорядоченная последовательность символов.
Х={х1 , х2 ,…, хn } – сообщение – кортеж символов
Дискретный ансамбль сообщения (ДАС) – сообщение с вероятностями символов ДАС {Х, p(хi ) или A, p(ai )}
3.1 Количество информации источника сообщений
Количество информации
Количеством информации символа сообщения определяется:
I(ai ) = - log2 (p(ai )) = - log(p(ai )) [бит] (i=1,2…n)
В Шенноновской теории информации количество информации источника определяется вероятностью появления символа.
I(ai ) = - ln(p(ai )) [нат]
I(ai ) = - lg(p(ai )) [дит]
Каждый символ сообщения содержит своё количество информации.
Свойства количества информации источника сообщений
1. Количество информации неотрицательно:
I(ai ) >= 0
2. Чем выше вероятность, тем меньшее количество информации содержит символ.
3. Если вероятность символа равна 1, то количество информации этого символа равно 0.
р(ai ) = 1 ⇒I(ai ) = 0
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого.
I(a1, a2, a3 ) = I(a1 ) + I(a2 ) + I(a3 )
Энтропия – среднее количество информации на символ сообщения (средневзвешенное).
[бит/символ]
Свойства энтропии
1. Энтропия неотрицательна: Н(А) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1: Н(ai ) = 0 ⇔р(ai ) =1
3. Энтропия ограничена: H (ai ) ≤ log n[бит/символ]
где n – количество символов в сообщении.
4. Максимальная энтропия равна: Hmax (А) = log n[бит/символ]
3.2Информационные потери
Существует два вида условной энтропии, которые определяют действия помех на дискретном канале – это частная условная энтропия (ЧУЭ) и общая условная энтропия (ОУЭ).
Частная условная энтропия источника (ЧУЭИ) сообщений отображает количество потерь информации при передаче каждого сигнала аi :
H(В/аi ) = − p(bj /ai )logp(bj /ai ) (i = 1,2…n) [бит/символ]