Реферат: Информация и способы ее представления
Оценим количество информации, содержащейся в числах.
Если предположить, что цифры 0, 1, ..., 9 используются одинаково часто (равновероятны), то
одна цифра содержит I = log(10) = 3,32 [бит];
четырехзначное число из диапазона [0..9999], если все его значения равновероятны, содержит
I = log(10000)=13,28 [бит];
а восьмиразрядное число - I=log(100000000)=26,56 [бита].
Итак, количество информации в сообщении зависит от числа разнообразий, присущих источнику информации и их вероятностей.
Повторим основные положения, рассмотренные выше.
1. Информация - отражение предметного или воображаемого мира с помощью знаков и сигналов.
2. Информация может существовать либо в непрерывной, либо в дискретной формах.
3. Информация о чем-либо может быть представлена многими способами. В качестве носителей информации могут использоваться разнообразные физические величины такой же природы (для непрерывной информации - непрерывные физические величины, для дискретной - дискретные).
4. Физический процесс является сигналом, если какая-либо присущая ему физическая величина несет в себе информацию.
5. Чтобы представить дискретную информацию, надо перечислить (поименовать) все разнообразия, присущие объекту или явлению (цвета радуги, виды фигур и др.).
Дискретная информация представляется:
числами (как цифровая),
символами некоторого алфавита (символьная),
графическими схемами и чертежами (графическая).
6. Дискретная информация может использоваться и для представления непрерывной. Удобной формой дискретной информации является символьная.
7. Разные алфавиты обладают одинаковой “изобразительной силой”: с помощью одного алфавита можно представить всю информацию, которую удавалось представить на основе другого алфавита. А значит, информацию обо всем окружающем человека мире можно представить в дискретной форме с использованием алфавита, состоящего только из двух символов (т.е. с использованием двоичной цифровой формы).
8. Форма представления информации, отличная от естественной, общепринятой, называется кодом.
Широко известны такие коды, как почтовые индексы, нотная запись музыки, телеграфный код Морзе, цифровая запись программ для ЭВМ (программирование в кодах), помехозащищенные коды в системах передачи данных.
9. Информация уничтожает неопределенность знаний об окружающем мире. Степень неопределенности принято характеризовать с помощью понятия “вероятность”.
Вероятность - величина, которая может принимать значения в диапазоне [0,1] и которая может рассматриваться как мера возможности наступления какого-либо события. Если событие никогда не может произойти, его вероятность считается равной 0, а если событие происходит всегда, его вероятность равна 1.
Для оценки количества информации в технике чаще всего используется способ, предложенный Клодом Шенноном. Для случая, когда все состояния, в которых может находиться объект, равновероятны, применяют формулу Хартли. Одна единица информации называется битом.