Реферат: Классическая теория информации и еe ограничения

Подобные сложности замечены давно. Ещё в 1963 году В.С. Флейшман писал, что “возникшая благодаря гениальной интуиции К.Шеннона теория информации испытывает кризис неадекватности физических представлений и своего аппарата” [Флейшман В.С. Конструкторские методы оптимального кодирования каналов с шумами.- М.: Изд. АН СССР, 1963. - 144 с.].

Шенноновская запись и последовавшая за ней теория тем самым “как бы создали возможность для отождествления двух разных по своей природе феноменов - информации, как семантики сообщения, и “информации”, как частоты осуществления какого-либо события, подобного модуляции тока на выходе канала связи” [Корогодин В.И. Информация и феномен жизни. Пущино: Пущинский научный центр АН СССР, 1991. - 204 с., с.11].

Итак, возможности возникшей теории были переоценены. Так стало расхожим заблуждением считать, что, используя формулу (1), или используя ее варианты, можно рассчитать информацию, содержащуюся в книге, тексте бегущей строки, и далее, ... в картине, мозге, и тому подобное! Иногда уверенность авторов в пригодности подобных расчётов при их употреблении вне математической теории связи Шеннона приводит к забавным ситуациям.

Парадокс с расчетом “принятой глазом информации”. В самом простом случае считается “информация” I, которая “содержится” в изображении чёрно-белого негатива. Для этого разлагают негатив-аналог на множество точек чёрного и белого цвета, а так же несколько промежуточных оттенков (градаций). Легко понять, что для разных (и условных) выборов числа градаций, мы получим совершенно разные итоговые значения I. И если в области технических систем считывания изображения можно как-то унифицировать процедуры расчёта, договорившись между собой брать одно и то же количество градаций и закладывать его во все конвенциональные схемы считывающих устройств, то в области живых систем проделать ту же процедуру затруднительно. В самом деле: расчёт “принятой глазом информации” подразумевает использование типовой формулы количества информации [Луизов А.В., Фёдорова Н.С. Глаз как приёмник информации. В кн. “Специальные вопросы светотехники в охране труда”.  М.: Наука, 1975. - 250 с.]:

(4)

где N  число элементов изображения, M  число градаций яркости. Но так как M глаза остаётся неопределённым, то и вычисления по формуле (4) можно считать достаточно случайными.

Идет война. Представьте себе, что Вы хотите рассчитать количество информации, содержащейся в пойманной Вами радиограмме противника. Какова будет ценность вашего расчета, если заведомо не известно, какая часть от пойманных Вами радиосообщений является намеренной дезинформацией, проводимой противником в целях запутывания?

Неудобства выражения информации через частоты (вероятности) осуществления какого-либо события вызывали к жизни несколько новых вариантов теории информации. С подробным методичным изложением всех появившихся предложений можно ознакомится в [Мелик-Гайказян И.В. Информационные процессы и реальность.  М.: Наука. Физматлит, 1998. - 192 с.]. Например, в 1966 году А.А. Харкевич предложил домножить выражения типа (1) и (4) на коэффициент, который был назван “ценностью информации” [Харкевич А.А. О ценности информации. В сб “Проблемы кибернетики”. // Вып. 4, М.: Физматгиз, 1960. - C.53-72.]. По мысли автора он должен был компенсировать сильно завышенные результаты расчётов применительно к сложным системам (живым системам, в частности). На наш взгляд такая попытка похожа на лукавство, ведь существа проблемы она не затронула, оставляя за собой возможность обобщения математической теории связи на широкий класс объектов (тем паче не искусственного происхождения). Кроме того, остался не ясен способ получения величины вводимого Харкевичем множителя.

Накопившихся несоответствий, обсуждавшихся в литературе, казалось бы должно было хватить, чтобы признать Шенноновскую теорию информации локальной теорией, с успехом описывающей процессы в системах связи с заведомо осмысленными передаваемыми текстами.

Выводы:

1) Количественная (классическая) теория информации изначально не нуждалась в дефиниции информации.

2) Определение меры информации (количества информации (1)) и её сходство со статистической мерой создали класс расширений классической теории информации, выходящих за рамки локальной теории, называемой иногда “математической теорией связи”.

3) Накоплен массив данных, свидетельствующих о неправомерности указанных расширений. Эти данные касаются процессов коммуникации в обществе и живой природе.

К-во Просмотров: 109
Бесплатно скачать Реферат: Классическая теория информации и еe ограничения