Реферат: Информация: понятия, виды, получение, измерение и проблема обучения

i=1

Информация в одном таком сообщении равна

n

I=log2 p=ln p / ln 2 = ln ( N! / Õ mi !)/ln 2 .

i=1

Используя формулу Стирлинга (достаточно точна, например, при N>100) - N!» (N/e)N , а точнее, её следствие - ln N! » N(ln N — 1) получаем (в битах):

n n

I » (N ln N — å mi ln mi ) / ln 2=— (N / ln 2) å pi ln pi .

i=1 i=1

Пример. Пусть рассматривается алфавит из двух символов русского языка - “к” и “а”. Относительные частоты встречаемости этих букв в частотном словаре русского языка равны соответственно p1 =0.028, p2 =0.062. Возьмем произвольное слово p длины N из k букв “к” и m (k+m=N) букв “а” над этим алфавитом. Число всех таких возможных слов, как это следует из комбинаторики, равно n=N!/(k! m!). Оценим количество информации в таком слове: I=log2 n=ln n / ln2=log2 e [ln N! — ln k! — ln m!]. Воспользовавшись следствием приведённой выше формулой Стирлинга получаем оценку количества информации (в битах) на 1 символ любого слова:

I1 =I/N» (log2 e/N)[(k+m)( ln N —1) — k(ln k—1) — m(ln m —1)]=

=(log2 e/N)[k ln(N/k) — m ln(N/m)]=

=— log2 e[(k/N) ln(k/N) + (m/N) ln(m/N)]£

£ —log2 e [p1 ln p1 +p2 ln p2 ]=—log2 e[0.028 ln0.028+0.062 ln0.062]» 0.235.

Пример. В сообщении 4 буквы “a”, 2 буквы “б”, 1 буква “и”, 6 букв “р”. Определим количество информации в одном таком (из всех возможных) сообщений. Число N различных возможных сообщений длиной в 13 букв будет равно величине: N=13!/(4!´ 2!´ 1!´ 6!)=180180. Количество информации I в одном сообщении будет равно величине: I=log2 (N)=log2 180180» 17.5 (бит).

Если k- коэфф ициент Больцмана, известный в физике как k=1. 38´ 1 0-16 эрг/град, то выражение

n S = —k å pi ln pi i=1в термодинамике извес тно как этропия или мера хаоса, беспорядка в системе. Сравнивая выражения I и S видим, что I можно понимать как информационную энтропию (энтропию из-за нехватки информации о/в системе).

Нулевой энтропии соответствует максимальная информация. Основное соотношение межд у энтропией и информацией:

I+S(log2 e)/k=const

или в дифференциальной форме

dI/dt= —((log2 e)/k)dS/dt.

Основными положительными сторонами формулы Шеннона является её отвлечённость от семантических и качественных, индивидуальных свойств системы, а также то, что в отличие от формулы Хартли она учитывает различность, разновероятность состояний - формула имеет статистический характер (учитывает структуру сообщений), делающий эту формулу удобной для практических вычислений. Основные отрицательные стороны формулы Шеннона: она не различает состояния (с одинаковой вероятностью достижения, например), не может оценивать состояния сложных и открытых систем и применима лишь для замкнутых систем, отвлекаясь от смысла информации.

Увеличение (уменьшение) меры Шеннона свидетельствует об уменьшении (увеличении) энтропии (организованности) системы. При этом энтропия может являться мерой дезорганизации систем от полного хаоса (S=Smax ) и полной информационной неопределённости (I=Imin ) до полного порядка (S=Smin ) и полной информационной определённости (I=Imax ) в системе.

Пример. Чем ближе движущийся объект к нам, тем полнее информация обрабатываемая нашими органами чувств, тем чётче и более структурирован (упорядочен) объект. Чем больше информации мы имеем о компьютерной технике, тем меньше психологический барьер перед ним (согласно основному соотношению между энтропией и информацией).

3. Термодинамическая мера. Информационно-термодинамический подход связывает величину энтропии системы с недостатком информации о её внутренней структуре (не восполняемым принципиально, а не нерегистрируемым). При этом число состояний определяет, по существу, степень неполноты наших сведений о системе.

Пусть дана термодинамическая система (процесс) S, а Н0 , Н1 - термодинамические энтропии системы S в начальном (равновесном) и конечном состояниях термодинамического процесса, соответственно. Тогда термодинамическая мера информации (негэнтропия) определяется формулой:

Н(Н01 )=Н0 — Н1 .

Эта формула универсальна для любых термодинамических систем. Уменьшение Н(Н01 ) свидетельствует о приближении термодинамической системы S к состоянии статического равновесия (при данных доступных ей ресурсах), а увеличение - об удалении.

Поставим некоторый вопрос о состоянии некоторой термодинамической системы. Пусть до начала процесса можно дать p1 равновероятных ответов на этот вопрос (ни один из которых не является предпочтительным другому), а после окончания процесса - p2 ответов. Изменение информации при этом:

К-во Просмотров: 706
Бесплатно скачать Реферат: Информация: понятия, виды, получение, измерение и проблема обучения