Лабораторная работа: Количественная мера информации
Количество информации I - есть осредненное значение логарифма вероятности состояния. Тогда каждое отдельное слагаемое -log pi необходимо рассматривать как частную информацию, получаемую от отдельного сообщения, то есть
Избыточность информации
Если бы сообщения передавались с помощью равновероятных букв алфавита и между собой статистически независимых, то энтропия таких сообщений была бы максимальной. На самом деле реальные сообщения строятся из не равновероятных букв алфавита с наличием статистических связей между буквами. Поэтому энтропия реальных сообщений -Hр , оказывается много меньше оптимальных сообщений - Hо. Допустим, нужно передать сообщение, содержащее количество информации, равное I. Источнику, обладающему энтропией на букву, равной Hр , придется затратить некоторое число nр , то есть
Если энтропия источника была бы Н0 , то пришлось бы затратить меньше букв на передачу этого же количества информации
I= n0 H0
Таким образом, часть букв nр -nо являются как бы лишними, избыточными. Мера удлинения реальных сообщений по сравнению с оптимально закодированными и представляет собой избыточность D.
(3)
Но наличие избыточности нельзя рассматривать как признак несовершенства источника сообщений. Наличие избыточности способствует повышению помехоустойчивости сообщений. Высокая избыточность естественных языков обеспечивает надежное общение между людьми.
Частотные характеристики текстовых сообщений
Важными характеристиками текста являются повторяемость букв, пар букв (биграмм) и вообще m-ок (m-грамм), сочетаемость букв друг с другом, чередование гласных и согласных и некоторые другие. Замечательно, что эти характеристики являются достаточно устойчивыми.
Идея состоит в подсчете чисел вхождений каждой nm возможных m-грамм в достаточно длинных открытых текстах T=t1 t2 …tl , составленных из букв алфавита {a1 , a2 , ..., an }. При этом просматриваются подряд идущие m-граммы текста
t1 t2 ...tm , t2 t3 ... tm+1 , ..., ti-m+1 tl-m+2 ...tl .
Если – число появлений m-граммы ai1 ai2 ...aim в тексте T, а L общее число подсчитанных m-грамм, то опыт показывает, что при достаточно больших L частоты
для данной m-граммы мало отличаются друг от друга.
В силу этого, относительную частоту считают приближением вероятности P (ai1 ai2 ...aim ) появления данной m-граммы в случайно выбранном месте текста (такой подход принят при статистическом определении вероятности).
Для русского языка частоты (в порядке убывания) знаков алфавита, в котором отождествлены E c Ё, Ь с Ъ, а также имеется знак пробела (-) между словами, приведены в таблице 1.
информация текстовый сообщение количественный
Таблица 1
- 0.175 |
О 0.090 |
Е, Ё 0.072 |
А 0.062 |
И 0.062 |
Т 0.053 |
Н 0.053 |
С 0.045 |
Р 0.040 |
В 0.038 |
К-во Просмотров: 384
Бесплатно скачать Лабораторная работа: Количественная мера информации
|