Автор работы: Пользователь скрыл имя, 17 Октября 2013 в 05:31, контрольная работа
Существует несколько взглядов на то, что принято считать информацией. Один взгляд, и его, по-видимому, придерживается большая часть специалистов и неспециалистов сводится к тому, что существует как бы два сорта информации:
1).Информация техническая, которая передаётся по телеграфным линиям и отображается на экранах радиолокаторов. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.
2). Информация семантическая, то есть смысловая. Это та самая информация, которая содержится, к примеру, в литературном произведении. Для такой информации предлагаются различные количественные оценки и даже строятся математические теории.
1. Определение информации. Наука информатика…………………..-3
Введение………………………………………………………………...-3
1.1. Определение информации………………………………………...-4
1.2. Наука информатика………………………………………………..-5
2. Методы представления информации. Количество
и единицы измерения информации. Двоичная система счисления……….-8
2.1. Методы представления информации…………………………….-8
2.2. Количество и единицы измерения информации………………..-8
2.3. Двоичная система счисления……………………………………-11
Заключение……………………………………………………………-13
Список литературы……………………………………………………-14
при бросании монеты: "выпала решка", "выпал орел";
на странице книги: "количество букв чётное", "количество букв нечётное".
Определим теперь, являются ли равновероятными сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все зависит от того, о каком именно здании идет речь. Если это, например, станция метро, то вероятность выйти из дверей первым одинакова для мужчины и женщины, а если это военная казарма, то для мужчины эта вероятность значительно выше, чем для женщины.
Для задач
такого рода американский учёный Клод
Шеннон предложил в 1948 г. другую формулу
определения количества информации,
учитывающую возможную
Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.
Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.
Помимо
двух рассмотренных подходов к определению
количества информации, существуют и
другие. Важно помнить, что любые
теоретические результаты применимы
лишь к определённому кругу случаев,
очерченному первоначальными
В качестве единицы информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).
Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.
А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.
Бит — слишком мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).
Широко используются также ещё более крупные производные единицы информации:
1 Килобайт (Кбайт) = 1024 байт = 210 байт,
1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.
В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:
1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.
За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.
2.3. Двоичная система счисления
Обработка
информации в ЭВМ основана на обмене
электрическими сигналами между
различными устройствами машины. Эти
сигналы возникают в
Таким образом,
в ЭВМ информация кодируется двумя
видами символов. Такому представлению
соответствует система
Различают два типа систем счисления:
Примером непозиционной системы счисления является римская :IX, IV, XV и т.д.
Примером позиционной системы счисления можно назвать десятичную систему, используемую повседневно.
Любое целое число в позиционной системе можно записать в форме многочлена
где s - основание с/с;
А- значащие цифры числа, записанные в данной с/с;
n - количество разрядов числа
Пример 1. Число 534110 запишем в форме многочлена:
534110=5•103+3•102+4•101+1•100
Пример 2. Число 32110 запишем в двоичной системе счисления. Для этого необходимо разложить число в виде суммы по степеням 2 :
32110=1•28+1•26+1•20
Записываем коэффициенты при степенях двойки (от минимальной нулевой степени к максимальной) справа налево. Поэтому данное число в двоичной системе счисления будет иметь вид: 1010000012
Для того, чтобы решить обратную задачу: перевести число из двоичной системы счисления в десятичную, необходимо воспользоваться формулой и произвести вычисления в 10-ой системе счисления.
Пример 3. Число 101001012 перевести в 10-ую систему счисления.
101001012=1•20+1•22+1•25+1•27=
Заключение
Бурное развитие науки и промышленности в XX веке, неудержимый рост объёмов поступающей информации привели к тому, что человек оказался не в состоянии воспринимать и перерабатывать всё ему предназначенное.
Возникла необходимость
Список литературы
1. Пекелис В. Кибернетика от А до Я. М.,1990.
2. Дмитриев
В.К. Прикладная теория
3. Брюшинкин В.Н. Логика, мышление, информация. Л.: ЛГУ, 1988.
Информация о работе Определение информации. Наука информатика. Методы представления информации