Реферат: Анализ процесса передачи информации
Под кодированием понимают процедуру сопоставления дискретному сообщению вида: ai (i=1, 2, 3, …,к) определенной последовательности кодовых символов, выбираемых из конечного множества различных элементарных кодовых символов: bi (i=1, 2, 3, …,m).
В кодировании используются различные системы счисления.
Из всех систем счисления практическое назначение имеют: двоичная (R=2), троичная (R=3), четверичная (R=4), восьмеричная (R=8) и десятичная (R=10). Кроме этих систем, человек издавна пользуется двенадцатиричной системой, отсчитывая время, и шестидесятиричной для отсчета углов. Во всех системах используется различное количество цифр. Например: в двоичной используется две цифры: 0 и 1 (011001). Представление машинных кодов производится в шестнадцатеричной системе счисления, где для кодирования информации используется сочетание цифр (0, 1, 2, …9) и букв (A, B, C, D, E, F).
В кодировании используются различные типы кодов: равномерный, неравномерный, избыточный, безизбыточный, помехоустойчивый, оптимальный.
Повышение коэффициента использования канала достигается за счет создания оптимального кода, т.е. вероятность встречаемости элементов одинакова.
Базовыми являются коды Морзе и Шеннона - Фанно.
Код Морзе: наиболее часто встречающимся знакам присваиваются наименее короткие и наоборот.
Код Шеннона – Фанно: принцип кодирования состоит в следующем: множество кодируемых знаков разбиваются на две группы, так, чтобы вероятности их встречаемости были одинаковыми (рис.3).
0 1
0 00 01 1 0 1
0 1 0 110 1
111
Рис.3 0 1 0 1
1000 1001 1010 1011
2.2. Модуляция
Модуляцией называется процесс управления одним или несколькими параметрами несущей (переносчика информации) в соответствии с изменением параметров первичного сигнала. Модулируемый параметр носителя называется информационным. Различают три вида модуляции: амплитудную (АМ), частотную (ЧМ) и фазовую (ФМ).
В качестве несущей используется не только гармонические, но и импульсные колебания. При этом выбор способов модуляции расширяется до семи видов:
АИМ – амплитудно – импульсная модуляция заключается в том, что амплитуда импульсной несущей изменяется по закону изменения мгновенных значений первичного сигнала.
ЧИМ – частотно – импульсная модуляция. По закону изменения мгновенных значений первичного сигнала изменяется частота следования импульсов несущей.
ВИМ – время – импульсная модуляция, при которой информационным параметром является временной интервал между синхронизирующим импульсом и информационным.
ШИМ – широтно – импульсная модуляция. Заключается в том, что по закону изменения мгновенных значений модулирующего сигнала меняется длительность импульсов несущей.
ФИМ – фазо – импульсная модуляция, отличается от ВИМ методом синхронизации. Сдвиг фазы импульса несущей изменяется не относительно синхронизирующего импульса, а относительно некоторой условной фазы.
ИКМ – импульсно – кодовая модуляция. Ее нельзя рассматривать как отдельный вид модуляции, так как значение модулирующего напряжения представляется в виде кодовых слов.
СИМ – счетно – импульсная модуляция. Является частным случаем ИКМ, при котором информационным параметром является число импульсов в кодовой группе.
3. Параметры системы передачи информации
Как видно из рис.2 система передачи информации состоит из 6 блоков.
Рассмотрим подробнее параметры трех составляющих системы передачи информации: источник информации, сигнал и канал.
Форма представления информации для ее передачи, хранения, обработки или непосредственного использования называется сообщением.
Для передачи информации на расстояние необходимо передать содержащие эту информацию сообщения. Такая передача возможна только с помощью какого -–либо –материального носителя – источника информации.
Основными параметрами источника информации являются: множество сообщений V, количество информации Iи избыточность R.
3.1. Источник информации
Из одного источника можно передать множество сообщений:
V= V1, V2, V3,....... Vn, где:
V1 - первый источник
Vn - n-ный источник.
Для сравнения между собой различных источников сообщений, а также различных линий и каналов связи нужно ввести количественную меру, которая дала бы возможность объективно оценить информацию, содержащуюся в сообщении и переносимую сигналом. Такая мера впервые была введена американским ученым К.Шенноном в 1946г.
Информация рассматривается как сообщение об исходе случайных событий, о реализации случайных сигналов. Поэтому количество информации ставится в зависимость от вероятности этих событий.
Если сообщение несет сведения о часто встречающихся событиях, вероятность появления которых стремится к единице, то такое сообщение мало информативно.