Учебное пособие: Расчет информационных характеристик дискретного канала
4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого:
I(a1, a2, a3 ) = I(a1 ) + I(a2 ) + I(a3 )
Энтропия дискретного ансамбля сообщения
Энтропия – среднее количество информации на символ сообщения.
Расчёт энтропии алфавита
Для вычисления энтропии алфавита нам понадобится lа - количество символов алфавита.
Максимальная энтропия алфавита будет равна:
Hmax (А)= log la [бит/символ]
Причём нужно отметить, что логарифм мы берём по основанию 2.
Расчёт энтропии сообщения
Для нахождения энтропии сообщения нам требуется вычислить такое значение:
H (A) = -∑(P(ai )*logP(ai )) [бит/символ]
Расчёт максимальной энтропии
Максимальную энтропию считаем по формуле:
Hmax (А)= log ls [бит/символ]
Свойства энтропии:
1. Энтропия не отрицательна:
Н(A) ≥ 0
2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1.
Н(A) = 0 ⇔Р(ai ) =1
3. Энтропия ограничена:
H (A) ≤ log ls [бит/символ]
где ls – количество символов в сообщении.
4. Максимальная энтропия равна:
Hmax (А ) = log ls [бит/символ]
Рис.4. График к свойству 4
Расчётная таблица результатов
В данную таблицу мы внесем все наши результаты расчётов и, как результат, построим график количества информации и график энтропии.