Определение информации. Наука информатика. Методы представления информации

Автор работы: Пользователь скрыл имя, 17 Октября 2013 в 05:31, контрольная работа

Краткое описание

Существует несколько взглядов на то, что принято считать информацией. Один взгляд, и его, по-видимому, придерживается большая часть специалистов и неспециалистов сводится к тому, что существует как бы два сорта информации:
1).Информация техническая, которая передаётся по телеграфным линиям и отображается на экранах радиолокаторов. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.
2). Информация семантическая, то есть смысловая. Это та самая информация, которая содержится, к примеру, в литературном произведении. Для такой информации предлагаются различные количественные оценки и даже строятся математические теории.

Содержание

1. Определение информации. Наука информатика…………………..-3
Введение………………………………………………………………...-3
1.1. Определение информации………………………………………...-4
1.2. Наука информатика………………………………………………..-5
2. Методы представления информации. Количество
и единицы измерения информации. Двоичная система счисления……….-8
2.1. Методы представления информации…………………………….-8
2.2. Количество и единицы измерения информации………………..-8
2.3. Двоичная система счисления……………………………………-11
Заключение……………………………………………………………-13
Список литературы……………………………………………………-14

Прикрепленные файлы: 1 файл

ИНФОРМАТИКА.docx

— 57.44 Кб (Скачать документ)

при бросании монеты: "выпала решка", "выпал орел";

на странице книги: "количество букв чётное", "количество букв нечётное".

Определим теперь, являются ли равновероятными  сообщения "первой выйдет из дверей здания женщина" и "первым выйдет из дверей здания мужчина". Однозначно ответить на этот вопрос нельзя. Все  зависит от того, о каком именно здании идет речь. Если это, например, станция  метро, то вероятность выйти из дверей первым одинакова для мужчины  и женщины, а если это военная  казарма, то для мужчины эта вероятность  значительно выше, чем для женщины.

Для задач  такого рода американский учёный Клод Шеннон предложил в 1948 г. другую формулу  определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ),

где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений. 

Легко заметить, что если вероятности p1, ..., pN равны, то каждая из них равна 1/N, и формула Шеннона превращается в формулу Хартли.

Помимо  двух рассмотренных подходов к определению  количества информации, существуют и  другие. Важно помнить, что любые  теоретические результаты применимы  лишь к определённому кругу случаев, очерченному первоначальными допущениями.

В качестве единицы информации условились принять  один бит (англ. bit — binary, digit — двоичная цифра).

Бит в  теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

А в вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для  хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд. 

Бит —  слишком мелкая единица измерения. На практике чаще применяется более  крупная единица — байт, равная восьми битам. Именно восемь битов требуется  для того, чтобы закодировать любой  из 256 символов алфавита клавиатуры компьютера (256=28).

Широко  используются также ещё более  крупные производные единицы  информации:

1 Килобайт (Кбайт) = 1024 байт = 210 байт,

1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,

1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее  время в связи с увеличением  объёмов обрабатываемой информации входят в употребление такие производные  единицы, как:

1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,

1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу  информации можно было бы выбрать  количество информации, необходимое  для различения, например, десяти равновероятных сообщений. Это будет не двоичная (бит), а десятичная (дит) единица информации.

 

2.3. Двоичная система счисления

Обработка информации в ЭВМ основана на обмене электрическими сигналами между  различными устройствами машины. Эти  сигналы возникают в определенной последовательности. Признак наличия  сигнала можно обозначить цифрой 1, признак отсутствия - цифрой 0. Таким  образом, в ЭВМ реализуются два  устойчивых состояния. С помощью  определенных наборов цифр 0 и 1 можно  закодировать любую информацию. Каждый такой набор нулей и единиц называется двоичным кодом. Количество информации, кодируемое двоичной цифрой - 0 или 1 - называется битом. С помощью набора битов, можно представить любое число и любой знак. Знаки представляются  восьмиразрядными комбинациями битов- байтами (т.е. 1 байт = 8 бит). Например, русская буква А - байт 10000000. Любую комбинацию битов можно интерпретировать как число. Например, 110 означает число 6, а 01101100 - число 108. Число может быть представлено несколькими байтами.

Таким образом, в ЭВМ информация кодируется двумя  видами символов. Такому представлению  соответствует система счисления, в которой используется всего  два цифровых знака - 0 и 1. Дадим определение  системы счисления (с/с): система счисления - это совокупность правил и приемов записи чисел с помощью набора цифровых знаков (алфавита). Количество цифровых знаков называют основанием системы счисления.

Различают два типа систем счисления:

  • позиционные, когда значение каждой цифры числа определяется ее местом (позицией) в записи числа;
  • непозиционные, когда значение цифры в числе не  зависит от ее места в записи числа.

Примером непозиционной системы счисления является римская :IX, IV, XV и т.д.

Примером позиционной системы счисления можно назвать десятичную систему, используемую повседневно.

Любое целое  число в позиционной системе  можно записать в форме многочлена

  • Xs={AnAn-1...A1A0}s=An•Sn+An-1•Sn-1+...+A1•S1+A0•S0

где s - основание с/с;

А- значащие цифры числа, записанные в данной с/с;

n - количество разрядов числа

Пример 1. Число 534110 запишем в форме многочлена:  

534110=5•103+3•102+4•101+1•100

Пример 2. Число 32110 запишем в двоичной системе счисления. Для этого необходимо разложить число в виде суммы по степеням 2 :  

32110=1•28+1•26+1•20

Записываем  коэффициенты при степенях двойки (от минимальной нулевой степени  к максимальной) справа налево. Поэтому данное число в двоичной системе счисления будет иметь вид: 1010000012

Для того, чтобы решить обратную задачу: перевести число из двоичной системы счисления в десятичную, необходимо воспользоваться формулой  и произвести вычисления в 10-ой системе счисления.

 

Пример 3. Число 101001012 перевести в 10-ую  систему счисления.

101001012=1•20+1•22+1•25+1•27=16510

 

Заключение

Бурное  развитие науки и промышленности в XX веке, неудержимый рост объёмов  поступающей информации привели  к тому, что человек оказался не в состоянии  воспринимать  и  перерабатывать  всё ему предназначенное.

Возникла необходимость классифицировать поступления по темам,  организовывать их хранение, доступ к ним, понять закономерности движения информации в различных  изданиях и т.д.  Исследования, позволяющие  разрешить возникшие  проблемы, стали называть  информатикой, без которой мы не можем и представить свою жизнь.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Список литературы

 

1. Пекелис В. Кибернетика от А до Я. М.,1990.

2. Дмитриев  В.К. Прикладная теория информации. М., 1989.

3. Брюшинкин В.Н. Логика, мышление, информация. Л.: ЛГУ, 1988.


Информация о работе Определение информации. Наука информатика. Методы представления информации