Учебное пособие: Расчет информационных характеристик дискретного канала

4. Аддитивность. Количество информации нескольких символов равно сумме количеств информаций каждого:

I(a1, a2, a3 ) = I(a1 ) + I(a2 ) + I(a3 )

Энтропия дискретного ансамбля сообщения

Энтропия – среднее количество информации на символ сообщения.

Расчёт энтропии алфавита

Для вычисления энтропии алфавита нам понадобится lа - количество символов алфавита.

Максимальная энтропия алфавита будет равна:

Hmax (А)= log la [бит/символ]


Причём нужно отметить, что логарифм мы берём по основанию 2.

Расчёт энтропии сообщения

Для нахождения энтропии сообщения нам требуется вычислить такое значение:

H (A) = -∑(P(ai )*logP(ai )) [бит/символ]

Расчёт максимальной энтропии

Максимальную энтропию считаем по формуле:

Hmax (А)= log ls [бит/символ]

Свойства энтропии:

1. Энтропия не отрицательна:

Н(A) ≥ 0

2. Энтропия равна нулю тогда и только тогда, когда вероятность символа равна 1.

Н(A) = 0 ⇔Р(ai ) =1

3. Энтропия ограничена:

H (A) ≤ log ls [бит/символ]


где ls – количество символов в сообщении.

4. Максимальная энтропия равна:

Hmax (А ) = log ls [бит/символ]

Рис.4. График к свойству 4

Расчётная таблица результатов

В данную таблицу мы внесем все наши результаты расчётов и, как результат, построим график количества информации и график энтропии.

К-во Просмотров: 649
Бесплатно скачать Учебное пособие: Расчет информационных характеристик дискретного канала