Курсовая работа: Расчет информационных характеристик источников сообщений, сигналов и каналов
0,06
1101
а10
0,027
1110
а5
0,017
11110
а1 1
0,014
111110
а9
0,003
1111110
a2
0,001
1111111
Сообщения источника располагаются в порядке не возрастания их вероятностей, делятся на две части так, чтобы суммарные вероятности сообщений в каждой части были по возможности равны. Сообщениям первой части приписывается в качестве первого символа нуль, а сообщениям второй части единица. Затем каждая из этих частей (если она содержит более одного сообщения) опять делится на две примерно равные части и в качестве второго символа для первой из них берется 0, а для второй 1. Этот процесс повторяется до тех пор, пока в каждой из полученных частей не останется по одному сообщению.
После использования полученных комбинаций символов, закодируется произвольная комбинация, состоящая из 5 символов из ансамбля {ai }: 101011111110010011110.
Среднее количество символов, приходящихся на одно сообщение, определяется по формуле 2.9 курса лекций:
,
где ms – количество позиций, а ps – вероятность сообщения из ансамбля {ai }.
Определяется минимальное среднее количество символов, приходящихся на одно сообщение, по формуле
,
где M – объем алфавита кода, равный 2, а H(U) энтропия источника.
Далее находится энтропия: