Реферат: Расчетно графическая работа по Информатике

Задача 2. Состояние охраняемого объекта контролируют 19 датчиков. Определите наименьшее количество сигнальных лампочек, необходимых для идентификации этих датчиков и передачи с них информации.

Решение.

Для определения минимального количества лампочек воспользуемся формулой:

Формула:

2x =N,

2x =19.

Решением получившегося уравнения будет дробное число, найдем целое количество для кодирования заданного количества лампочек:

24 =16,

25 =32.

Таким образом, с помощью 4 лампочек можно закодировать 16 датчиков, а с помощью 5 лампочек – 32 датчика.

Тогда для кодирования 19 датчиков необходимо 5 лампочек.

Ответ: 5 лампочек.

Задача 3. В ящике лежат перчатки (белые и черные). Среди них – 2пары черных. Сообщение о том, что из ящика достали пару черных перчаток, несет 4 бита информации. Сколько всего пар перчаток было в ящике?

Решение.

Количество информации в сообщении о выпадении черных перчаток (воспользуемся формулой для вероятностного подхода):

I=log2 (1/p)=4;

24 =1/p;

1/p=16;

р=1/16=0,0625;

Рч – вероятность попадания при вытаскивании пары черных перчаток

рч =2/x;

2/x=0,0625;

x=(1/0,0625)/2=8.

Ответ: 8 пар.

Задача 4. Определите количество информации в сообщении «МОЛОКО» с учетом и без учета вероятности появления символов в сообщении, определите энтропию и избыточность алфавита в сообщении.

Решение.

Количество информации I в сообщении «МОЛОКО» без учета вероятности появления символов (максимальное количество информации) определяется по формуле Хартли:

I=log2 N,

где N- количество символов в сообщении.

Тогда

I=log2 6=2,58 бит.

Для определения количества информации с учетом вероятности появления символов сообщения, определим вероятность появления символов. В сообщении всего 6 символов (4 буквы), вероятность появления символов:

  • Вероятность появления буквы М: Рм =1/6=0,2;
  • Вероятность появления буквы О: Ро =3/6=1/2=0,5;
  • Вероятность появления буквы Л: Рл =1/6=0,2;
  • Вероятность появления буквы К: Рк =1/6=0,2.

Количество информации в сообщении:

I=∑n i=1 Ni log2 1/pi ,

где Ni -i-й символ, Pi -вероятность его появления.

Определим количество информации для каждой буквы в сообщении:

· iм = log2 (1/0,2)=log2 5 =2,32 бит;

· iо = log2 (1/0,5)=log2 2=1 бит;

· iл = log2 (1/0,2)= log2 5=2,32 бит;

· iк = log2 (1/0,2)= log2 5=2,32 бит.

Количество информации в сообщении:

I=2,32 1+1 3+2,32 1+2,32 1=2,32+3+2,32+2,32=9,96 бит.

К-во Просмотров: 613
Бесплатно скачать Реферат: Расчетно графическая работа по Информатике