Реферат: Информация: понятия, виды, получение, измерение и проблема обучения
Если p1 > p2 (D I >0) - прирост информации, т.е. сведения о системе стали более определёнными, а при p1 <p2 (D I<0)- менее определёнными. Универсально то, что мы не использовали явно структуру системы (механизм протекания процесса).
Пример. Предположим, что имеется термодинамическая система - газ в объёме 10 (м3 ), который расширяется до объёма 20 (м3 ). Нас интересует вопрос о координате некоторой молекулы газа. В начале мы знали ответ на вопрос и поэтому p1 =1 (lnp1 =0). Число ответов было пропорционально [ln10]. После поднятия заслонки мы знаем координату, микросостояние, т.е. изменение информации о состоянии системы равно D I=—kln(20/10)=—kln2 (нат). Это известное в термодинамике выражение для прироста энтропии в расчёте на одну молекулу и оно подтверждает второе начало термодинамики. Энтропия - мера недостатка информации о микросостоянии статической системы.
Величина D I может быть интерпретирована как количество информации, необходимой для перехода от одного уровня организации системы к другой (при D I>0 - более высокой, а при D I>0 - более низкой организации).
Термодинамическая мера (энтропия) применима к системам, находящимся в тепловом равновесии. Для систем, далёких от теплового равновесия, например, живых биосистем, мера - энтропия - менее подходящая.
4. Энергоинформационная (квантово-механическая) мера. Энергия (ресурс) и информация (структура) - две фундаментальные характеристики систем реального мира, связывающие их вещественные, пространственные, временные характеристики. Если А - множество "энергетического происхождения", а В - множество "информационного происхождения", то можно определить энергоинформационную меру (системы A« B) как отношение, связь между этими множествами вида f: A® B. Она должна отражать механизм взаимосвязей физико-информационных и вещественно-энергетических структур и процессов в системе. Сейчас актуально говорить о биоэнергоинформационных мерах, отражающих механизм взаимосвязей биофизикоинформационных и вещественно-энергетических процессов в системе, в ноосфере.
Пример. Процесс деления клеток сопровождается излучением квантов энергии с частотами приблизительно до N=1.5´ 1015 гц. Этот спектр можно воспринимать как спектр функционирования словарного запаса клетки - как биоинформационной системы. С помощью этого спектра можно закодировать до 1015 различных биохимических реакций, что примерно в 107 раз больше количества реакций реально протекающих в клетке (их примерно 108 ), т.е. словарный запас клетки избыточен для эффективного распознавания, классификации, регулировании этих реакций в клетке. Количество информации на 1 квант энергии: I=log2 1015» 50 бит. При делении клеток, количество энергии, расходуемой на передачу 50 бит информации равна энергии кванта (h - постоянная Планка, n - частота излучения): E=hn =6.62´ 10—27 (эрг/cек)´ 0.5´ 1015 (сек—1 )=3.3´ 10—12 (эрг). При этом, на 1 Вт мощности "передатчика" или на m =107 эрг/сек. может быть передано количество квантов: n=m /E=107 (эрг/сек)/(3.3´ 10—12 (эрг))» 3.3´ 1018 (квант). Общая скорость передачи информации на 1 Вт затрачиваемой клеткой мощности определяется по числу различных состояний клетки N и числу квантов (излучений) m: V=n log2 N=3.3´ 1018´ 50» 1.6´ 1020 (бит/сек).
4. Понятие о связи информации и самоорганизации
Любая открытая информационная система эволюционирует так, что начиная с состояния наибольшей энтропии (неопределённости) стремится спиралеобразно к новым связям и отношениям, к организованности и порядку в системе в процессе взаимоотношений со средой и перестройки структуры с целью уменьшения энтропии.
Пример. На телевизионной игре “Что? Где? Когда?” обсуждение вопроса часто начинается хаотично, спонтанно, независимо и в конце обсуждения может организоваться в единодушное принятие правильного решения.
Самоорганизация может наблюдаться и в неживых системах.
Пример. Эволюция ЭВМ - пример самоорганизации: от 1-го поколения ЭВМ (40-50-ые годы 19 века) с ненадёжными электронными лампами и быстродействием порядка 104 операций в сек. до 1-го поколения оптических вычислительных нейроподобных структур (конец 90-ых годов) с голографической памятью, с логикой на потоках фотонов, быстродействием порядка 1012 операций в сек. и высокой надёжностью.
Сформулируем основные аксиомы теории информационных динамических процессов (информационной синергетики).
Аксиома 1. Развитие системы определяется некоторой целью и информационными ресурсами системы.
Аксиома 2. При стремлении к цели система воспринимает входную информацию, которая используется и для изменения внутренней структуры самой системы, внутрисистемной информации.
Аксиома 3. Изменение внутрисистемной информации происходит таким образом, чтобы уменьшалась энтропия (мера беспорядка) в системе.
Аксиома 4. Любое изменение внутрисистемной информации оказывает воздействие на выходную информацию системы (на окружающую среду).
Аксиома 5. Процесс актуализации информации структурирует окружающий нас мир. Все, что не познано в данный момент времени, образует “хаос”, который заставляет актуализировать новую информацию, новые формы представления и описания знаний, приводит к появлению новых ветвей знания; этот хаос развивает при этом и исследователя.
Информация - это знание, которое используется для развития, совершенствования системы и её взаимодействий с окружающей средой.
Информация сама развивается вслед за развитием системы. Новые формы, принципы, подсистемы, взаимосвязи и отношения вызывают изменения в информации, ее содержании, формах получения, переработки, передачи и использования. Благодаря потокам информации система осуществляет целесообразное взаимодействие с окружающей средой, т.е. управляет или управляема. Своевременная и оперативная информация может позволить стабилизировать систему, адаптироваться, восстанавливаться при нарушениях структуры и/или подсистем. От степени информированности системы, от взаимодействия системы и среды зависит развитие и устойчивость системы.
Наблюдаемая математизация и математическая информатизация разделов современной науки показывает, что их эффективность зависит как от сложности и возможности описания её законов и принципов адекватными математическими и логико-информационными моделями, так и от используемого математического аппарата, выбранных мер информации, интеллектуальной деятельности, знаний, конструктивных методов и алгоритмов их измерения, оценивания информационных ресурсов.
Кроме указанных выше подходов к определению меры информации, есть и множество других (меры Винера, Колмогорова, Шрейдера и др.), но основными методами (в образовательной информатике) являются указанные. Рекомендуются для чтения [1-11] (приведены в хронологическом порядке).
5. Задачи для самостоятельного решения
В заключение предложим некоторые задачи для закрепления материала и усиления интереса при обучении рассмотренной выше проблеме.
Задач