Понятие информации. Свойства информации. Виды информации.
- Информация — это осознанные сведения об окружающем мире, которые являются объектом хранения, преобразования, передачи и использования.
Основные виды информации
- графическая или изобразительная
- звуковая
- текстовая
- числовая
- видеоинформация
визуальная
аудильная
тактильная
вкусовая
обонятельная
Информационные процессы
- ХРАНЕНИЕ
- ПЕРЕДАЧА
- ОБРАБОТКА
Свойства информации
- Объективность
- Достоверность
- Доступность
- Полнота
- Точность (адекватность)
- Актуальность
- Полезность (ценность)
Классификация информации
- 1. Информацию можно подразделить по форме представления:
- дискретная форма
- аналоговая или непрерывная форма
2. По области возникновения можно выделить информацию:
- элементарную (механическую), которая отражает процессы, явления неодушевленной природы;
- - биологическую, которая отражает процессы животного и растительного мира;
- - социальную, которая отражает процессы человеческого общества.
3. По способу передачи и восприятия различают следующие виды информации:
- - визуальную, передаваемую видимыми образами и символами;
- - аудиальную, передаваемую звуками;
- - тактильную, передаваемую ощущениями;
- - органолептическую, передаваемую запахами и вкусами;
- - машинную, выдаваемую и воспринимаемую средствами вычислительной техники.
4. Информацию, создаваемую и используемую человеком, по общественному назначению можно разбить на три вида:
- - личную, предназначенную для конкретного человека;
- - массовую, предназначенную для любого желающего ее пользоваться (общественно-политическая, научно-популярная и т.д.) ;
- - специальную, предназначенную для использования узким кругом лиц, занимающихся решением сложных специальных задач в области науки, техники, экономики.
5. По способам кодирования выделяют следующие типы информации:
текстовая (в виде знаков)
графическая (в виде знаков)
числовая (в виде знаков)
звуковая (в виде сигналов)
комбинированная (в виде знаков и сигналов)
Единицы измерения информации
- Впервые объективный подход к измерению информации был предложен американским инженером Р. Хартли в 1928 году, затем в 1948 году обобщен американским учёным К. Шенноном.
Формула Хартли:
- I = log2N
- N – количество возможных событий или неопределенность знаний, i – количество информации в сообщении о том, что произошло одно из N событий.
Формула Шеннона:
- Информационный объем сообщения рассчитывается по формуле:
- I – информационный объем сообщения
- (количество информации в сообщении)
- k – количество символов
- i – информационная емкость символа
- Информационная емкость символа расчитывается по знакомой нам формуле, где N количество символов в алфавите
I = k * i
N = 2 i
Единицы измерения информации
Сообщение,уменьшающее неопределенность знаний в два раза, несет 1 бит информации.
- 8 бит = 1 байт
- 1 килобайт = 1024 байта
- 1 мегабайт = 1024 килобайта
- 1 гигабайт = 1024 мегабайта
- 1 терабайт = 1024 гигабайта
Примеры:
- 24 бита = 24:8 = 6 байт
- 3 Гб = 3·1024= 3072 Мб = 3145728 Кб
- 2048 Мб = 2048:1024 = 2 Гб