Понятие информации. Уровни отображения (синтаксический, семантический, прагматический). Единицы измерения
Автор работы: Пользователь скрыл имя, 04 Декабря 2014 в 17:22, контрольная работа
Краткое описание
Информация – это сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состояниях, которые уменьшают имеющуюся о них степень неопределенности, неполноты знаний. Информатика рассматривает информацию как связанные между собой сведения, изменяющие наши представления о явлении или объекте окружающего мира
Содержание
Понятие информации. Единицы измерения. Уровни отображения (синтаксический, семантический, прагматический). 2. Список использованной литературы
Термин «информация»
происходит от латинского слова «informatio»,
что означает сведения, разъяснения,
изложение. Несмотря на широкое распространение
этого термина, понятие информации является
одним из самых дискуссионных в науке.
В настоящее время наука пытается найти
общие свойства и закономерности, присущие
многогранному понятию информация, но
пока это понятие во многом остается интуитивным
и получает различные смысловые наполнения
в различных отраслях человеческой деятельности:
в обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. «Информировать» в этом смысле означает «сообщить нечто, неизвестное раньше»;
в технике под информацией понимают сообщения, передаваемые в форме знаков или сигналов;
в кибернетике под информацией понимает ту часть знаний, которая используется для ориентирования, активного действия, управления, т.е. в целях сохранения, совершенствования, развития системы.
Информация – это сведения
об объектах и явлениях окружающей среды,
их параметрах, свойствах и состояниях,
которые уменьшают имеющуюся о них степень
неопределенности, неполноты знаний.
Информатика рассматривает
информацию как связанные между собой
сведения, изменяющие наши представления
о явлении или объекте окружающего мира.
С этой точки зрения информацию можно
рассматривать как совокупность знаний
о фактических данных и зависимостях между
ними.
Люди обмениваются информацией
в форме сообщений. Сообщение –
это форма представления информации в
виде речи, текстов, жестов, взглядов, изображений,
цифровых данных, графиков, таблиц и т.п.
Одно и то же информационное
сообщение (статья в газете, объявление,
письмо, телеграмма, справка, рассказ,
чертеж, радиопередача и т.п.) может содержать
разное количество информации для разных
людей – в зависимости от их предшествующих
знаний, от уровня понимания этого сообщения
и интереса к нему.
Так, сообщение, составленное
на японском языке, не несет никакой новой
информации человеку, не знающему этого
языка, но может быть высокоинформативным
для человека, владеющего японским. Никакой
новой информации не содержит и сообщение,
изложенное на знакомом языке, если его
содержание непонятно или уже известно.
Информация есть характеристика не сообщения,
а соотношения между сообщением и его
потребителем. Без наличия потребителя,
хотя бы потенциального, говорить об информации
бессмысленно. Применительно к компьютерной
обработке данных под информацией понимают
некоторую последовательность символических
обозначений (букв, цифр, закодированных
графических образов и звуков и т.п.), несущую
смысловую нагрузку и представленную
в понятном компьютеру виде. Каждый новый
символ в такой последовательности символов
увеличивает информационный объем сообщения.
Предметы, процессы, явления
материального или нематериального свойства,
рассматриваемые с точки зрения их информационных
свойств, называются информационными
объектами.
В процессе обработки информация
может менять структуру и форму. Признаком
структуры являются элементы информации
и их взаимосвязь. Формы представления
информации могут быть различны. Основными
из них являются:
символьная (основана на использовании различных символов);
текстовая (текст – это символы, расположенные в определенном порядке);
графическая (различные виды изображений);
световых или звуковых сигналов;
радиоволн;
электрических и нервных импульсов;
магнитных записей;
жестов и мимики;
запахов и вкусовых ощущений;
хромосом, посредством которых
передаются по наследству признаки и свойства
организмов и т.д.
В повседневной практике такие
понятия, как информация и данные, часто
рассматриваются как синонимы. На самом
деле между ними имеются существенные
различия.
Данными называется информация, представленная
в удобном для обработки виде. Данные могут
быть представлены в виде текста, графики,
аудио-визуального ряда. Представление
данных называется языком информатики,
представляющим собой совокупность символов,
соглашений и правил, используемых для
общения, отображения, передачи информации
в электронном виде.
Измерение информации
Прежде, чем измерять значение
какой-либо физической величины, надо
ввести единицу измерения. У информации
тоже есть такая единица – бит, но смысл
ее различен при измерении информации
в рамках разных подходов к определению
понятия "информация".
I
ПОДХОД. Неизмеряемость
информации в быту (информация как новизна для
получателя).
Вы получили некоторое сообщение,
например, прочитали статью в журнале.
В этом сообщении содержится какое-то
количество новых для Вас сведений. Как
оценить, сколько информации Вы получили?
Другими словами, как измерить информацию?
Можно ли сказать, что чем больше статья,
тем больше информации она содержит?
Разные люди, получившие одно
и то же сообщение, по-разному оценивают
его новизну и информационную емкость.
Это происходит оттого, что знания людей
о событиях, явлениях, о которых идет речь
в сообщении, до получения сообщения были
различными. Поэтому те, кто знал об этом
мало, сочтут, что получили много информации,
те же, кто знал больше, могут сказать,
что информации не получили вовсе. Количество
информации в сообщении, таким образом,
зависит от того, насколько ново это сообщение
для получателя. В таком случае, количество
информации в одном и том же сообщении
должно определяться отдельно для каждого
получателя, т.е. иметь субъективный характер.
Но субъективные вещи не поддаются сравнению
и анализу, для их измерения трудно выбрать
одну общую для всех единицу измерения.
Таким образом, с точки зрения информации
как новизны, мы не можем однозначно и
объективно оценить количество информации,
содержащейся даже в простом сообщении.
Что же тогда говорить об измерении количества
информации, содержащейся в научном открытии,
новом музыкальном стиле, новой теории
общественного развития. Поэтому, когда
информация рассматривается как новизна
сообщения для получателя, вопрос об измерении
количества информации не ставится.
II ПОДХОД –
технический или объемный.
В технике, где информацией
считается любая хранящаяся, обрабатываемая
или передаваемая последовательность
знаков, сигналов, часто используют простой
способ определения количества информации,
который может быть назван объемным. Он
основан на подсчете числа символов в
сообщении, т.е. связан только с длиной
сообщения и не учитывает его содержания.
Длина сообщения зависит от числа знаков,
употребляемых для записи сообщения. Например,
слово "мир" в русском алфавите записывается
тремя знаками, в английском – пятью (peace),
а в ДКОИ-8 (двоичный код обмена информацией
длиной 8) – двадцатью четырьмя битами(111011011110100111110010).
В вычислительной технике применяются
две стандартные единицы измерения: бит
(англ. binary digit – двоичная цифра) и байт
(byte) и производные от них единицы – килобайт
(Кб), мегабайт (Мб), гигабайт (Гб), тетрабайт(Тб).
1 бит – минимально
возможный хранимый и передаваемый
сигнал. Условно два его возможных
состояния обозначаются 0 и 1. В действительности
эти состояния могут иметь
различную физическую природу: для
оперативной памяти это наличие
или отсутствие напряжения в
электронной схеме; для компакт-дисков
это выступ или впадина на
поверхности и т.д. Исторически
сложилось так, что 1 байт равен 8
битам. Именно восемью битами
кодировался один символ в программах
для первых ЭВМ.
Обычно приставка "кило"
означает тысячу, а приставка "мега"
– миллион, но в вычислительной технике
все "привязывается" к принятой двоичной
системе кодирования.
В силу этого один килобайт
равен не тысяче байт, а 210=1024байт.
Аналогично, 1 Мб = 210 Кб = 1024 Кб
= 220 байт = 1 048
576 байт. 1 Гб = 210 Мб = 220 Кб = 230 байт = 1 073
741 824 байт.
III ПОДХОД – вероятностный.
Измерение информации в теории информации,
когда информация определяется как снятая
неопределенность.
Получение информации (ее увеличение)
одновременно означает увеличение знания,
что, в свою очередь, означает уменьшение
незнания или информационной неопределенности.
Говорят, что сообщение, которое уменьшает
неопределенность, существовавшую до
его получения, ровно в 2 раза, несет 1 бит
информации. По сути, 1 бит информации соответствует
выбору одного из двух равновероятных
сообщений.
ПРИМЕРЫ.
Книга лежит на одной
из двух полок – верхней или нижней. Сообщение
о том, что книга лежит на верхней полке,
уменьшает неопределенность ровно вдвое
и несет 1бит информации. Сообщение о том,
как упала монета после броска – "орлом"
или "решкой", несет один бит информации.
В соревновании участвуют 4 команды. Сообщение
о том, что третья команда набрала большее
количество очков, уменьшает первоначальную
неопределенность ровно в четыре раза
(дважды по два) и несет два бита информации.
Очень приближенно можно считать,
что количество информации в сообщении
о каком-то событии совпадает с количеством
вопросов, которые необходимо задать и
ответом на которые могут быть лишь "да"
или "нет", чтобы получить ту же информацию.
Причем событие, о котором идет речь, должно
иметь равновероятные исходы. Именно поэтому,
если число равновероятных исходов события,
о котором идет речь в сообщении, кратно
степени числа 2 (4 = 22, 8 = 23, 32 = 25), то сообщение
несет целое количество бит информации.
Но в реальной практике могут встречаться
самые разные ситуации. Например, сообщение
о том, что на светофоре красный сигнал,
несет в себе информации больше, чем бит.
С точки зрения на информацию
как на снятую неопределенность количество
информации зависит от вероятности получения
данного сообщения. Причем, чем больше
вероятность события, тем меньше количество
информации в сообщении о таком событии.
Иными словами, количество информации
в сообщении о каком-то событии зависит
от вероятности свершения данного события.
Одной из важнейших
характеристик информации является ее
адекватность. Адекватность информации – это уровень соответствия
образа, создаваемого с помощью информации,
реальному объекту, процессу, явлению.
От степени адекватности информации зависит
правильность принятия решения.
Адекватность
информации может выражаться в трех формах:
синтаксической, семантической и прагматической.
Синтаксическая адекватность отображает формально-структурные
характеристики информации, не затрагивая
ее смыслового содержания. На синтаксическом
уровне учитываются тип носителя и способ
представления информации, скорость ее
передачи и обработки, размеры кодов представления
информации, надежность и точность преобразования
этих кодов и т.д. Информацию, рассматриваемую
с таких позиций, обычно называют данными.
Семантическая
адекватность определяет степень соответствия
образа объекта самому объекту. Здесь
учитывается смысловое содержание информации.
На этом уровне анализируются сведения,
отражаемые информацией, рассматриваются
смысловые связи. Таким образом, семантическая
адекватность проявляется при наличии
единства информации и пользователя. Эта
форма служит для формирования понятий
и представлений, выявления смысла, содержания
информации и ее обобщения.
Прагматическая адекватность отражает соответствие информации
цели управления, реализуемой на ее основе.
Прагматические свойства информации проявляются
при наличии единства информации, пользователя
и цели управления. На этом уровне анализируются
потребительские свойства информации,
связанные с практическим использованием
информации, с соответствием ее целевой
функции деятельности системы.
Каждой
форме адекватности соответствует своя
мера количества информации.
Синтаксическая мера
информации оперирует с обезличенной
информацией, не выражающей смыслового
отношения к объекту. На этом уровне объем
данных в сообщении измеряется количеством
символов в этом сообщении. В качестве
минимальной единицей измерения данных
информации Клод Шеннон предложил принять
один бит (англ. bit – binary digit – двоичная
цифра). Бит в теории
информации – количество информации,
необходимое для различения двух равновероятных
сообщений (типа: «чет» или «нечет», «орел»
или «решка», «да» или «нет» и т.п.).
В вычислительной технике битом называют
наименьшую «порцию» памяти компьютера,
необходимую для хранения одного из двух
знаков «0» и «1», используемых для внутримашинного
представления данных и команд.
Бит – слишком мелкая единица измерения.
На практике чаще применяется более крупная
единица – байт, равная
восьми битам. Именно восемь битов требуется
для того, чтобы закодировать любой из
256 символов алфавита клавиатуры компьютера
(256 = 28 ) .
Широко используются также еще более крупные
производные единицы информации:
1 Килобайт (Кбайт)=1024байт, 1 Мегабайт (Мбайт)=1024Кбайт,1
Гигабайт (Гбайт)=1024Мбайт.
В последнее время в связи с увеличением
объемов обрабатываемой информации входят
в употребление такие производные единицы,
как:
1 Терабайт (Тбайт) = 1024Гбайт, 1 Петабайт
(Пбайт)=1024Тбайт.