Учебное пособие: Предмет и содержание кибернетики

– содержательную (специальную, главным образом осведомляющую, измерительную и управляющую, а также научно-техническую и др.) информацию, извлекаемую из информационных массивов (сообщений команд и т.д.) относительно индивидуальной модели предметной области получателя (человека или подсистемы).

Первая связана с качеством информационных процессов в системе, с внутренними технологическими эффектами и затратами на переработку информации. Вторая – как правило, с внешним целевым (материальным) эффектом.

При реализации ИП передача информации от источника к приемнику может осуществляться с помощью какого-либо материального носителя (бумаги, магнитной ленты, диска и т.д.) или физического процесса (звуковых или электромагнитных волн). В зависимости от типа носителя различают следующие виды информации: документальную (ДИ) акустическую (речевую) и телекоммуникационную (ТИ).

ДИ представляется в графическом или буквенно-цифровом виде на бумаге, а также в электронном виде. РИ возникает в ходе ведения разговоров, а также при работе систем звукоусиления и звуковоспроизведения. ТИ циркулирует в технических средствах обработки и хранения информации, а также в каналах связи при ее передаче. Носителем информации при ее обработке техническими средствами и передаче по проводным каналам связи является электрический ток, а при передаче по радио и оптическому каналам – электромагнитные волны.

В настоящее время во всех вычислительных машинах информация представляется с помощью электрических сигналов. При этом возможны две формы представления численного значения какой-либо переменной: аналоговой (в виде одного сигнала) и дискретной (в виде нескольких сигналов).

Единицы измерения информации

Под количеством информации понимают меру снятия неопределенности ситуации при получении сообщения. В решении определения количества информации существуют два основных подхода. В конце 40-х годов ХХ века один из основоположников кибернетики американский математик Клод Шеннон, развил вероятностный подход. А работы по созданию ЭВМ, привели к использованию объемного способа измерения информации, учитывающего количество символов, содержащихся в сообщении . Длина сообщения при этом обусловлена используемым алфавитом.

При этом для измерения информации вводятся два параметра: количество информации I и объем данных V д.

Вероятностный подход основан на энтропии Н – величина, характеризующая неопределенность информации. На ней строятся теории Хартли и Шеннона, описанные следующими формулами:

Н= log 2 N – аддитивная мера Хартли

Н= - - формула Шеннона определения среднего количества информации в сообщении с учетом известных вероятностных характеристик его элементарных составляющих,

где N – количество элементов, определяющих сообщение, Pj – априорная (доопытная) вероятность появления элемента х j в сообщении, log 2 Pj – количество информации в битах, доставляемой элементом х j сообщения.

Наименьшей единицей измерения информации является Бит. Это двоичная ячейка памяти, которая может находиться в двух состояниях: «0» когда амплитуда импульса равна 0 или близка к нему, и «1», когда амплитуда импульса приближена к напряжению источника питания.

Выбор такой единицы количества информации связан с наиболее распространенным способом ее обработки на компьютере с помощью двоичного кода.

1 Бит – это количество информации, содержащейся в сообщении типа «да» – «нет», что в двоичном коде равнозначно символам 1 – 0.

Основной единицей количества информации, воспринимаемой и обрабатываемой компьютером является Байт , объединяющий блоки данных из 8 Бит. Т.о. 1Байт = 8Бит. Байт записывается в память компьютера, считывается и обрабатывается как единое целое. Количественная совокупность Байт называется машинным словом.

Информация, обрабатываемая компьютером поступает в него уже закодированной.

Кодирование информации

Для автоматизации работы с данными, очень важно унифицировать их форму представления – для этого обычно используется прием кодирования, т.е. выражение данных одного типа через данные другого типа. Человеческие языки – это ни что иное, как системы кодирования понятий для выражения мыслей по средствам речи. Проблема универсального средства кодирования достаточно успешно реализуется в отдельных отраслях техники науки и культуры (телеграфная азбука, система Брайля для слепых, система записи математических выражений и др.)

Своя система существует и в вычислительной технике – она называется двоичным кодированием и основана на представлении данных последовательностью всего двух знаков: 0 и 1. эти знаки называют двоичными цифрами.


Лекция №4. Системы счисления

Система счисления – это способ изображения любых чисел с помощью некоторого набора символов, которые называются цифрами.

Все системы счисления делятся на два больших класса – непозиционные и позиционные.

В непозиционной системе значение цифры не зависит от места, которое она занимает в записи числа. Примером непозиционной системы счисления является римская система записи чисел.

В позиционных системах счисления вес (значение) каждой цифры изменяется от ее позиции (положения) в записи числа. Примером такой системы является наша с вами привычная десятичная система счисления.

Название системе дает количество цифр, необходимых для записи числа в данной системе.

Наиболее распространенными системами счисления являются:

- двоичная сс (две цифры 0 и 1)

- десятичная сс (десять цифр 0, 1, 2, 3, 4, 5, …9)

К-во Просмотров: 193
Бесплатно скачать Учебное пособие: Предмет и содержание кибернетики