Измерение количества информации. Носители информации

Автор работы: Пользователь скрыл имя, 11 Сентября 2014 в 11:58, практическая работа

Краткое описание

Цель: научиться измерять и вычислять информацию, а также и работать с носителями информации.

Прикрепленные файлы: 1 файл

Практическое занятие2.doc

— 52.50 Кб (Скачать документ)

Практическое занятие № 2

Тема: Измерение количества информации. Носители информации.

Цель: научиться измерять и вычислять информацию, а также и работать с носителями информации.

Время выполнения: 2 часа

Оборудование: ПК.

Раздаточный материал: дидактический материал

Программное обеспечение: операционная система, текстовый редактор.

Теоретические основы

1 байт = 8 битов.

Существуют еще более крупные единицы измерения информации.

Переход к более крупным единицам измерения информации (килобайт, мегабайт, терабайт, петабайт, эксабайт). Байт наиболее удобная единица измерения информационного объема сообщения, состоящего из последовательности символов компьютерного алфавита. Однако она мала при подсчете емкости информационных носителей. По аналогии с физическими единицами измерения (например, 1 килограмм = 1000 грамм) подбираем по таблице целых степеней двойки значение близкое к тысячи. Это значение равно 1024. Поэтому 1 килобайт = 1024 байт = 210 байт, 1 мегабайт = 1024 килобайт = 210 килобайт и т. д.

1 Кбайт (один килобайт) = 1024 байт;

1 Мбайт (один мегабайт) = 1024 Кбайт;

1 Гбайт (один гигабайт) = 1024 Мбайт.

Что представляют единицы измерения:

5 бит – буква в клетке  кроссворда.

1 байт – символ, введенный  с клавиатуры.

6 байт – средний размер  слова, в тексте на русском языке.

50 байт – строка текста.

2 Кбайта – страница  машинописного текста.

100 Кбайт – фотография  в низком разрешении

1 Мбайт – небольшая  художественная книга.

100 Мбайт – метровая  книга с полками.

1 Гбайт – прочитывает  человек за всю жизнь.

3 Гбайт – час качественной видеозаписи.

Для сохранения информации используют носители информации: флэш-накопители, флэш-карты, диски разных форматов, съемные жесткие диски.

Порядок выполнения работы

Изучить материал и записать в тетрадь. Выполнить задания.

 

Теоретические сведения

Содержательный (вероятностный) подход к определению количества информации

Если заключённые в каком-то сообщении сведения являются для человека новыми, понятными, пополняют его знания, т.е. приводят к уменьшению неопределённости знаний, то сообщение содержит информацию.

1 бит – количество  информации, которое содержится  в сообщении,  которое уменьшает  неопределённость знаний в 2 раза.

Пример1. При бросании монеты возможны 2 события (случая) – монета упадёт орлом или решкой, причём оба события равновероятны (при большом количестве бросаний количество случаев падения монеты орлом и решкой одинаковы). После получения сообщения о результате падения монеты неопределённость знаний уменьшилась в 2 раза, и, поэтому, количество информации, полученное при этом равно 1 бит.

Содержательный (вероятностный) подход является субъективным, т.к. одну и ту же информацию разные люди могут оценивать  по разному. Для одного человека сведения в сообщении могут быть важными и понятными, для другого бесполезными, непонятными или вредными.

Единицы измерения информации. Перевод единиц измерения.

1 бит – количество  информации, которое содержится  в сообщении, которое уменьшает  неопределённость знаний в 2 раза.

1 бит – наименьшая  единица информации. Более крупные  единицы – байт, килобайт, мегабайт, гигабайт.

Система единиц измерения информации:

1 байт = 8 бит

1 Кбайт = 210 байт = 1024 байт;

1 Мбайт = 210 Кбайт = 1024 Кбайт = 220 байт;

1 Гбайт = 210 Мбайт = 1024 Мбайт = 220 кбайт = 230 байт

Информационный объём носителей информации: 
Дискета – 1,44 Мбайт; компакт-диск » 700 Мбайт; DVD-диск – до 17 Гбайт (стандарт – 4,7 Гбайт); жёсткий диск – от 20 Гбайт и более (стандарт 250 Гбайт); Flash-память – от 256 Мбайт – 32 Гбайт и более.

Примеры перевода единиц:

1) 5 байт = 5 * 8 бит = 40 бит;

2) 24 бита = 24*8 байта = 3 байта;

3) 4 Кбайт = 4 * 1024 байт = 4096 байт;

4) 16384 бита = 16384 : 8 байт = 2048 байт;

  1. 2048 байт : 1024 = 2 Кбайта.

Вычисление количества информации для равновероятных событий.

Если события равновероятны, то количество информации можно рассчитать по формуле:

       N = 2I ,

где N – число возможных событий,

I – количество информации в битах.

Формула была предложена американским инженером Р. Хартли в 1928 г.

Задача 1. В коробке 32 карандаша, все карандаши разного цвета. Наугад вытащили красный. Какое количество информации при этом было получено?

Решение.

Так как вытаскивание карандаша любого цвета из имеющихся в коробке 32 карандашей является равновероятным, то число возможных событий

равно 32.

N = 32, I = ?

N = 2I, 32 = 25, I = 5 бит.

Ответ: 5 бит.

Задачи на перевод единиц измерения информации

Задача 2. В школьной библиотеке 16 стеллажей с книгами, на каждом – по 8 полок. Ученику сообщили, что нужный учебник находится на 2-ой полке 4-го стеллажа. Какое количество информации получил ученик?

*Задача 3. Загадывают число в диапазоне от 1 до 200. Какое наименьшее количество вопросов надо задать, чтобы наверняка отгадать число. На вопросы можно отвечать только «Да» или «Нет».

Решение.

Правильная стратегия состоит в том, чтобы количество вариантов каждый раз уменьшалось вдвое.

Например, загадано число 152.

1 вопрос: Число >100?  Да.

2 вопрос: Число < 150? Нет.

3 вопрос: Число > 175? Нет. и  т.д.

Количество событий в каждом варианте будет одинаково, и их отгадывание равновероятно. N = 2I, 200 = 2I, 7 < I < 8. Т.к. количество вопросов нецелым числом быть не может, то необходимо задать не более 8 вопросов.

Ответ: 8 вопросов

**Вычисление количества  информации для событий с различными  вероятностями.

Существует множество ситуаций, когда возможные события имеют различные вероятности реализации. Рассмотрим примеры таких событий.

  1. В коробке 20 карандашей, из них 15 красных и 5 чёрных. Вероятность вытащить наугад красный карандаш больше, чем чёрный.
  2. При случайном падении бутерброда вероятность падения его маслом вниз (более тяжёлой стороной) больше, чем маслом вверх.
  3. В пруду живут 8000 карасей, 2000 щук и 40000 пескарей. Самая большая вероятность для рыбака – поймать в этом пруду пескаря, на втором месте – карася, на третьем – щуку.

Количество информации в сообщении о некотором событии зависит от его вероятности. Чем меньше вероятность события, тем больше информации оно несёт. 
P = K/N, где К – количество случаев реализации одного из исходов события, N – общее число возможных исходов одного из событий

 
2 I = log2(1/p), где I – количество информации, p – вероятность события

Задача. В коробке 50 шаров, из них 40 белых и 10 чёрных. Определить количество информации в сообщении о вытаскивании наугад белого шара и чёрного шара.

Решение. 
Вероятность вытаскивания белого шара

P1 = 40/50 = 0,8 
Вероятность вытаскивания чёрного шара P2 = 10/50 = 0,2 
Количество информации о вытаскивании белого шара I1 = log2(1/0,8) = log21,25 = log1,25/log2 » ________бит 
Количество информации о вытаскивании чёрного шара

I2 = log2(1/0,2) = log25 = log5/log2 » _______бит                                

Ответ: ______ бит, ______ бит

Что такое логарифм?

Логарифмом числа а по основанию b называется показатель степени, в которую надо возвести число a, чтобы получить число b.

a logab = b, a > 0, b > 0, a ≠ 1

Вычисление логарифмов чисел по основанию 2 с помощью электронного калькулятора

log 2 6 = log 6 / log 2, где log 6 и log 2 – десятичные логарифмы

Программа вычисления логарифма числа 6  по основанию 2 ( log 2 6 ) с помощью инженерного калькулятора:  6, log, / , 2, log, =

 

Количество информации в случае различных вероятностей событий определяется по формуле: 
Формула Шеннона: (американский учёный, 1948 г.)

где Pi – вероятность i-го события, N – количество возможных событий

Задача. В озере живут караси и окуни. Подсчитано, что карасей 1500, а окуней - 500. Сколько информации содержится в сообщениях о том, что рыбак поймал карася, окуня, поймал рыбу?

Решение. 
События поимки карася или окуня не являются равновероятными, так как окуней в озере меньше, чем карасей.

Общее количество карасей и окуней в пруду 1500 + 500 = 2000.  
Вероятность попадания на удочку карася

p1 = 1500/2000 = 0,75, окуня p2 – 500/2000 = 0,25.

 I1 = log2(1/p1), I1 = log2(1/p2), где I1 и I2 – вероятности поймать карася и окуня соответственно.

I1 = log2(1 / 0,75) » 0,43 бит, I2 = log2(1 / 0,25) » 2 бит – количество информации в сообщении поймать карася и поймать окуня соответственно.

Количество информации в сообщении поймать рыбу (карася или окуня) рассчитывается по формуле Шеннона

I = - p1log2 p1 - p2log2 p2

I = ________________________________________________=__________ бит.

Ответ: в сообщении содержится _______ бит информации

Отчет

Отчет должен быть оформлен в тетради и содержать:

  • наименование работы;
  • цель работы;
  • теоретические сведения (с примерами);
  • задачи с решениями;
  • ответы на контрольные вопросы.

Контрольные вопросы

1. Какое количество информации  несет в себе жесткий диск  емкостью 4 терабайта, если производитель  рассчитывает 1000 за 1024?

2. Чем отличается вероятностный  подход к измерению информации от алфавитного?

3. Какие единицы измерения  информации используют для флэш-накопителей?

 


Информация о работе Измерение количества информации. Носители информации