Реферат: Расчетно графическая работа по Информатике
Задача 2. Состояние охраняемого объекта контролируют 19 датчиков. Определите наименьшее количество сигнальных лампочек, необходимых для идентификации этих датчиков и передачи с них информации.
Решение.
Для определения минимального количества лампочек воспользуемся формулой:
Формула:
2x =N,
2x =19.
Решением получившегося уравнения будет дробное число, найдем целое количество для кодирования заданного количества лампочек:
24 =16,
25 =32.
Таким образом, с помощью 4 лампочек можно закодировать 16 датчиков, а с помощью 5 лампочек – 32 датчика.
Тогда для кодирования 19 датчиков необходимо 5 лампочек.
Ответ: 5 лампочек.
Задача 3. В ящике лежат перчатки (белые и черные). Среди них – 2пары черных. Сообщение о том, что из ящика достали пару черных перчаток, несет 4 бита информации. Сколько всего пар перчаток было в ящике?
Решение.
Количество информации в сообщении о выпадении черных перчаток (воспользуемся формулой для вероятностного подхода):
I=log2 (1/p)=4;
24 =1/p;
1/p=16;
р=1/16=0,0625;
Рч – вероятность попадания при вытаскивании пары черных перчаток
рч =2/x;
2/x=0,0625;
x=(1/0,0625)/2=8.
Ответ: 8 пар.
Задача 4. Определите количество информации в сообщении «МОЛОКО» с учетом и без учета вероятности появления символов в сообщении, определите энтропию и избыточность алфавита в сообщении.
Решение.
Количество информации I в сообщении «МОЛОКО» без учета вероятности появления символов (максимальное количество информации) определяется по формуле Хартли:
I=log2 N,
где N- количество символов в сообщении.
Тогда
I=log2 6=2,58 бит.
Для определения количества информации с учетом вероятности появления символов сообщения, определим вероятность появления символов. В сообщении всего 6 символов (4 буквы), вероятность появления символов:
- Вероятность появления буквы М: Рм =1/6=0,2;
- Вероятность появления буквы О: Ро =3/6=1/2=0,5;
- Вероятность появления буквы Л: Рл =1/6=0,2;
- Вероятность появления буквы К: Рк =1/6=0,2.
Количество информации в сообщении:
I=∑n i=1 Ni ∙ log2 1/pi ,
где Ni -i-й символ, Pi -вероятность его появления.
Определим количество информации для каждой буквы в сообщении:
· iм = log2 (1/0,2)=log2 5 =2,32 бит;
· iо = log2 (1/0,5)=log2 2=1 бит;
· iл = log2 (1/0,2)= log2 5=2,32 бит;
· iк = log2 (1/0,2)= log2 5=2,32 бит.
Количество информации в сообщении:
I=2,32∙ 1+1∙ 3+2,32∙ 1+2,32∙ 1=2,32+3+2,32+2,32=9,96 бит.