Учебное пособие: Расчет информационных характеристик дискретного канала
p(ai , bj ) = p(bj ) ·p(ai /bj )
2.1 Свойства канальных матриц
Свойства канальной матрицы источника (КМИ):
1. КМИ – квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждой строки равна 1, то есть образует полную группу:
(i=1,2…n)
3. Условные вероятности главной диагонали КМИ отражают вероятность правильного приема сигналов относительно переданных сигналов ;
4. Остальные условные вероятности канальной матрицы (кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, канальная матрица имеет вид:
Свойства канальной матрицы приемника (КМП):
1. КМП – это квадратная матрица, то есть её размер nxn ;
2. Сумма условных вероятностей каждого столбца равна 1, то есть образует полную группу:
(j=1,2…n)
3. Условные вероятности главной диагонали КМП отражают вероятность правильного приема сигналов относительно переданных сигналов ;
4. Остальные условные вероятности канальной матрицы приемника(кроме главной диагонали) отражают вероятность ложного приема переданных сигналов;
5. Для идеального канала, на котором нет помех, КМП имеет вид:
Свойства канальной матрицы объединения (КМО):
1. Сумма совместных вероятностей каждой строки равна безусловной вероятности источника:
дискретный матрица приемник кодирование
(i=1,2…n)
Σ p(ai ) = 1
2. Сумма совместных вероятностей каждого столбца равна соответствующей безусловной вероятности приемника:
(j=1,2…n)
3. Сумма всех элементов канальной матрицы объединения равна 1.
Σ p(bj ) = 1
3. Информационные характеристики источника сообщений
Для того, чтобы понять что такое информационные характеристики, нужно вначале дать определение таким терминам, как алфавит сообщения, кортеж упорядоченных уникальных символов и дискретный ансамбль сообщения (ДАС).
Алфавитом сообщения называются символы, которые входят в сообщение. Например: