Контрольная работа: Концепция информации

Система может быть самой совершенной, но при создании передающих систем важно обратить внимание на то, какое количество информации пройдет через передающую систему. При подобных вычислениях поступают обычным путем: абстрагируются от смысла сообщения, как отрешаются от конкретности в привычных арифметических действиях (от сложения двух и трех яблок, переходят к сложению чисел вообще: 2+3).

Информация – произвольная последовательность символов, т.е. любое слово, каждый новый символ увеличивает количество информации. Для того чтобы измерить количество информации, нужен эталон. Прежде, чем выбрать слово в качестве эталона информации необходимо выбрать алфавит, из которого будет составлено это слово. Например, он может состоять из цифр 1 и 0 или понятий «да» и «нет». Эталоном считается слово, состоящее из одного символа такого алфавита. Количество информации, содержащееся в этом слове, принимают за единицу, названную битом . Записав слово двухсимвольным алфавитом, и имея эталон количества информации, можно подсчитать количество информации заключённое в этом слове.

Ученые заявили, что они «полностью игнорировали человеческую оценку информации». Последовательному ряду из 100 букв, например, приписывают определенное значение информации, не обращая внимания, имеет ли эта информация смысл и имеет ли смысл практическое применение. Количественный подход – наиболее разработанная ветвь теории информации. В соответствии с этим определением совокупность 100 букв – фраза из 100 букв из газеты, пьесы Шекспира или теоремы Эйнштейна – имеет в точности одинаковое количество информации. Такое определение количества информации является полезным и практичным. Оно в точности соответствует задаче инженера связи, который должен передать всю информацию, содержащуюся в поданной телеграмме, вне зависимости от ценности этой информации для адресата. Канал связи бездушен. Передающей системе важно одно: передать нужное количество информации за определенное время.

Оценка количества информации основывается на законах теории вероятностей, определяется через вероятности событий. Сообщение имеет ценность, несет информацию только тогда, когда мы узнаем из него об исходе события, имеющего случайный характер, когда оно в какой-то мере неожиданно. Сообщение об уже известном никакой информации не содержит. Т.е. если Вам кто-то позвонит по телефону и скажет: «Днем бывает светло, а ночью темно», то это сообщение Вас удивит лишь нелепостью высказывания очевидного, а не новостью, которую оно содержит. Иное дело, например, результат забега на скачках. Кто придет первым трудно предсказать. Чем больше интересующее нас событие имеет случайных исходов, тем ценнее сообщение об его результате, тем больше информации.

Сообщение о событии, у которого только два одинаково возможных исхода, содержит одну единицу информации, называемую битом . Выбор единицы связан с наиболее распространенным двоичным способом кодирования при передаче и обработке. Количество информации зависит от вероятностей исходов события. Сумма вероятностей всех исходов равна единице: какой-нибудь из всех возможных исходов обязательно наступит.

Событие может иметь и неравновероятные исходы. Так, при футбольном матче между сильной и слабой командами вероятность победы сильной команды велика – например, 4/5. Вероятность ничьей намного меньше, например 3/20. Вероятность же поражения совсем мала. Выходит, что количество информации – это мера уменьшения неопределенности некоторой ситуации. Различные количества информации передаются по каналам связи, и количество проходящей через канал информации не может быть больше его пропускной способности, которую определяют по тому, какое количество информации проходит здесь за единицу времени.

Один из героев романа Жюля Верна «Таинственный остров», журналист Спиллет, передавал по телефону главу из Библии, чтобы его конкуренты не могли воспользоваться связью. В этом случае канал был загружен полностью, а количество информации было равно нулю, ибо абоненту передавались известные для него сведения. Канал работал вхолостую, пропустив строго определенное количество импульсов, ничем их не нагрузив. Чем больше информации несет каждый из определенного числа импульсов, тем полнее используется пропускная способность канала. Поэтому разумно кодировать информацию, найти экономный, скупой язык для передачи сообщений.

Всякое событие, всякое явление служит источником информации. Всякое событие, всякое явление может быть выражено по-разному, разным способом, разным алфавитом. Чтобы информацию более точно и экономно передать по каналам связи, ее надо соответственно закодировать. Информацию «просеивают» самым тщательным образом. В телеграфе часто встречающиеся буквы, сочетания букв, даже целые фразы изображают более коротким набором нулей и единиц, а те, что встречаются реже, – более длинным. В случае, когда уменьшают длину кодового слова для часто встречающихся символов и увеличивают для редко встречающихся, говорят об эффективном кодировании информации. Но на практике довольно часто случается, что код, возникший в результате самого тщательного «просеивания», код удобный и экономный, может исказить сообщение из-за помех, которые бывают в каналах связи: искажения звука в телефоне, атмосферные помехи в радио, искажение или затемнение изображения в телевидении, ошибки при передаче в телеграфе. Эти помехи, или «шумы», обрушиваются на информацию. А от этого бывают самые невероятные и неприятные неожиданности. Поэтому для повышения надежности в передаче и обработке информации приходится вводить лишние символы – своеобразную защиту от искажений. Эти лишние символы не несут действительного содержания в сообщении, они избыточны. С точки зрения теории информации все то, что делает язык красочным, гибким, богатым оттенками, многоплановым, многозначным, – избыточность. С таких позиций письмо Татьяны к Онегину избыточно, т.к. в нем множество информационных излишеств для краткого и всем понятного сообщения «Я вас люблю»!

В этой связи полезно вспомнить анекдот о шляпочнике, пригласившем своих друзей для обсуждения проекта вывески. Предполагалось нарисовать на вывеске шляпу и написать: «Джон Томпсон, шляпочник, делает и продает шляпы за наличные деньги». Один из друзей заметил, что слова «за наличные деньги» являются излишними – такое напоминание оскорбительно для покупателя. Другой нашел лишним слово «продает», итак понятно, что шляпочник продает шляпы, а не раздает их даром. Третьему показалось, что слова «шляпочник» и «делает шляпы» представляют собой тавтологию, и последние слова были выкинуты. Четвертый предложил выкинуть и слово «шляпочник» – нарисованная шляпа ясно говорит, кто такой Джон Томпсон. Наконец, пятый уверял, что для покупателя совершенно безразлично, будет ли шляпочник называться Джоном Томпсоном или иначе, и предложил обойтись без этого указания. В конце концов, на вывеске осталась только шляпа. Если бы люди пользовались только такого рода кодами, без избыточности в сообщениях, то все «информационные формы» – книги, доклады, статьи – были бы предельно краткими. Но проиграли бы в доходчивости и красоте.

Большая часть специалистов придерживается взгляда, что существует как бы два сорта информации:

1) Информация техническая, которая передаётся по линиям связи и отображается на экранах, приёмных устройствах. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.

2) Информация семантическая, то есть смысловая. Это та информация, которая содержится, к примеру, в литературном произведении. Для такой информации предлагаются различные количественные оценки и даже строятся математические теории. Но общее мнение сводится к тому, что оценки здесь условны и приблизительны.

Приверженцы другого взгляда на информацию считают, что это физическая величина, такая же, как, например, энергия или скорость. Определённым образом и в определённых условиях информация равным образом описывает как процессы, происходящие в естественных физических системах, так и процессы в системах, искусственно созданных.

При наличии этих двух противоположных мнений существует и третье, примиряющее. Сторонники третьего подхода считают, что информация едина, и кроме количества информации, следует измерять ещё и её ценность. А вот с ценностью информации происходит то же самое, что и с понятием семантической информации. С одной стороны, казалось бы, её можно вычислить, а с другой стороны, все эти вычисления справедливы лишь в ограниченном числе случаев. Кто может точно вычислить, к примеру, ценность крупного научного открытия? Количество информации в двух сообщениях может быть совершенно одинаковым, а смысл совершенно разным. Два слова, например «Мир» и «Рим», содержат одинаковое количество информации, состоят из одних и тех же букв, но смысл слов различен. В повседневной жизни мы, как правило, оцениваем полученные сведения со смысловой стороны: новые сведения воспринимаем не как определенное количество информации, а как новое содержание. Вычислить смысл информации, подсчитать его в сообщении пробует делать семантическая теория информации.

Еще одно направление (прагматическое) в этой науке. К примеру, пассажиры едут в автобусе, водитель объявляет остановку. Кое-кто выходит, остальные не обращают внимания на переданную водителем информацию. По той причине, что информация здесь имеет разную ценность для получателей, т.е. пассажиров. Вышли те, кому информация была ценна. Ценность можно определить как свойство информации, влияющей на поведение ее получателя.

Информация не может существовать без материального носителя, без передачи энергии. Закодированное сообщение приобретает вид сигналов-носителей информации, они идут по каналу. Выйдя на приемник, сигналы должны обрести вновь общепонятный вид. С этой целью сигналы пробегают декодирующее устройство, приобретая форму, удобную для абонента.

Каналы связи – понятие широкое, включающее множество самых разных систем: при телефонной передаче источник сообщения – говорящий; кодирующее устройство, изменяющее звуки слов в электрические импульсы, – это микрофон; канал, по которому передается информация – телефонный провод; часть трубки, которую мы подносим к уху, выполняет роль декодирующего устройства; и наконец, информация поступает в «принимающее устройство» – ухо человека на другом конце провода. Существует канал связи совершенно другой природы – живой нерв. Здесь все сообщения передаются нервным импульсом. В технических каналах связи направление передачи информации может меняться, а по нервной системе передача идет в одном направлении. Еще один пример – вычислительная машина, здесь те же характерные черты. Отдельные системы вычислительной машины передают одна другой информацию с помощью сигналов; вычислительная машина – автоматическое устройство для обработки информации. Машина не создает из «ничего» информацию, она преобразует только ту, которая в неё введена.

КИБЕРНЕТИКА И ИНФОРМАТИКА

Кибернетика (от греч. kybernetike – искусство управления) – наука об управлении, связи и переработке информации. Основной объект исследования – кибернетические системы, рассматриваемые абстрактно, вне зависимости от их материальной природы. Примеры кибернетических систем – автоматические регуляторы в технике, ЭВМ, человеческий мозг, биологические популяции, человеческое общество. Каждая такая система представляет собой множество взаимосвязанных объектов (элементов системы), способных воспринимать, запоминать и перерабатывать информацию, а также обмениваться ею.

Современная кибернетика состоит из ряда разделов, представляющих собой самостоятельные научные направления. Теоретическое ядро кибернетики составляют теория информации, теория алгоритмов, теория автоматов, исследование операций, теория оптимального управления, теория распознавания образов. Кибернетика разрабатывает общие принципы создания систем управления и систем для автоматизации умственного труда. Основные технические средства для решения задач кибернетики – ЭВМ. Поэтому возникновение кибернетики как самостоятельной науки связано с созданием в 40-х гг. CC в. этих машин, а развитие кибернетики с прогрессом электронной вычислительной техники.

В «Кратком философском словаре», вышедшем в Москве в 1954г. можно прочитать: «Кибернетика – реакционная лженаука, возникшая в США после Второй мировой войны и получившая широкое распространение в капиталистических странах; форма современного механицизма». Это выражение совершенно не соответствует тому эффекту, который произвело появление в 1948г. небольшой книжки американского математика Норберта Винера* (1894–1964) под названием «Кибернетика, или управление и связь в животном и машине», мгновенно превратившейся в интеллектуальный бестселлер, ставший предметом общего внимания и горячих споров, породивший массу газетных статей, заставивший взяться за перо писателей-фантастов и футурологов. Позже Винер, имея в виду себя и нескольких своих единомышленников, вспоминал: «...Никто из нас, включая и меня, не мог представить себе, какое волнение вызовут эти идеи, появившись в печати».

Процессы восприятия информации, ее хранения и передачи Винер обобщенно назвал «связью» (communication), а переработку воспринятой информации в сигналы, направляющие деятельность механизмов, машин, организмов и их объединений (в том числе человеческих коллективов) – управлением (control). В его книге речь шла об общих принципах, лежащих в основе связи и управления – используемых как самой природой, так и устройствах и социальных системах придуманных людьми. Науку о связи и управлении Винер назвал кибернетикой от древнегреческого слова «кибернетис», сначала обозначавшего рулевого, кормчего, а затем получившее более широкий смысл управляющего, правителя.

В качестве центрального понятия винеровской кибернетики выступала информация – последовательность сигналов, поступающих от передатчика к приемнику, накапливающихся в запоминающем устройстве (органе), обрабатываемых и выдаваемых в виде конечного результата. Наиболее сильное впечатление на широкую публику произвели описанные Винером фантастические возможности быстродействующих электронно-счетных машин, аналогии их работы с функционированием человеческого мозга, захватывающие перспективы сложных автоматических устройств и роботов.

В наши дни термин «кибернетика» несколько утратил свое научное значение: в США его почти вытеснил термин «компьютерная наука» («computer science»), а в России «информатика». В ходу он только у писателей-фантастов с их «киберами», а также у журналистов с их недоступным пониманию специалистов «киберпространством».

Бурное развитие науки и промышленности в XX в., неудержимый рост объёмов поступающей информации привели к тому, что человек оказался не в состоянии воспринимать и перерабатывать всё ему предназначенное. Возникла необходимость классифицировать поступления по темам, организовывать их хранение, доступ к ним, понять закономерности движения информации в различных изданиях и т.д. Исследования, позволяющие разрешить возникшие проблемы, стали называть информатикой. Информатика наука об общих свойствах и закономерностях информации, а также методах ее поиска, передачи, хранения, обработки и использования в различных сферах деятельности человека.

На начальном этапе своего развития информатика предполагалась как база библиотечного дела, и многие годы являлась теорией и практикой его совершенствования. Тогда информатика занимала промежуточное место между изучаемыми объектами природы и знаниями о них. Человек, изучая объекты окружающего мира, получает информацию, которую фиксирует на каких-то носителях (литература, магнитные кассеты и др.).

Информатика – это не только изучение, где и в каких журналах появляются статьи по данной теме, или как расставить книги, или каталожные карточки; это круг вопросов, который связан с разработкой эффективных методов сбора, хранения, обработки и преобразования имеющейся информации в знания, т.е. с обеспечение связей цепочки "Информация-Знания".

До 50-х годов нашего столетия не существовало почти ничего общего в методах сбора и обработки информации у медиков, физиков, психологов и т.д. Примеров отдельных связей было много, но не было общего стержня, вокруг которого объединились бы все науки. Информатика не включает в себя ни химию, ни физику, ни медицину и т.д., хотя с каждой из этих наук имеет тесные связи. Она существует для помощи другим наукам и совместно с математикой снабжает их методами исследований и обработки информации.

С рождением ЭВМ информатика сформировалась как наука. Сегодня она включает в себя теорию кодирования информации, разработку методов и языков программирования, математическую теорию процессов передачи и обработки информации.

ЭВМ

Первые электронно-вычислительные машины создавались для проведения расчётов в ядерной физике, в летательной и ракетной технике. Последовавшее далее внедрение ЭВМ в область административного управления и экономики дало не только экономический эффект, но и привело к созданию и бурному росту новой отрасли – средств и методов электронной обработки информации.

К-во Просмотров: 185
Бесплатно скачать Контрольная работа: Концепция информации