Лекции по "Информатике"

Автор работы: Пользователь скрыл имя, 18 Октября 2014 в 17:38, курс лекций

Краткое описание

§ 1. Введение в информатику
1. Определение инфоpматики
Термин "информатика" происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Прикрепленные файлы: 1 файл

Лекции_по_Информатике.doc

— 2.05 Мб (Скачать документ)

Конспект лекций по дисциплине “Информатика”

§ 1. Введение в информатику

1. Определение инфоpматики

Термин "информатика"  происходит от французских слов information (информация) и automatique (автоматика) и дословно означает "информационная автоматика".

Инфоpматика — это основанная на использовании компьютерной техники дисциплина, изучающая структуру и общие свойства информации, а также закономерности и методы её создания, хранения, поиска, преобразования, передачи и применения в различных сферах человеческой деятельности.


В 1978 году международный научный конгресс официально закрепил за понятием "информатика" области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая компьютеры и их программное обеспечение, а также организационные, коммерческие, административные и социально-политические аспекты компьютеризации — массового внедрения компьютерной техники во все области жизни людей.

 Инфоpматика — научная дисциплина  с широчайшим диапазоном применения, которая базируется на компьютерной технике и немыслима без нее.

   Её основные направления:

pазpаботка вычислительных  систем и пpогpаммного обеспечения;

теоpия инфоpмации, изучающая процессы, связанные с передачей, приёмом, преобразованием и хранением информации;

методы искусственного интеллекта, позволяющие создавать программы для решения задач, требующих определённых интеллектуальных усилий при выполнении их человеком (логический вывод, обучение, понимание речи, визуальное восприятие, игры и др.);

системный анализ, заключающийся в анализе назначения проектируемой системы и в установлении требований, которым она должна отвечать;

методы машинной графики, анимации, средства мультимедиа;

средства телекоммуникации, в том числе, глобальные компьютерные сети, объединяющие всё человечество в единое информационное сообщество;

разнообразные пpиложения в производство, науку, образование, медицину, торговлю, сельское хозяйство и все другие виды хозяйственной и общественной деятельности.

   Информатику обычно представляют состоящей из двух частей:

  • технические средства;
  • программные средства.

Технические средства, то есть аппаратура компьютеров, в английском языке обозначаются словом Hardware.

Для программных средств используется термин Software, который определяет равнозначность программного обеспечения и самой машины.

Программное обеспечение — это совокупность всех программ, используемых компьютерами, а также деятельность по их созданию и применению.


Помимо этих двух общепринятых ветвей информатики выделяют ещё одну существенную ветвь — алгоритмические средства (Brainware). Эта ветвь связана с разработкой алгоритмов и изучением методов и приёмов их построения.

 

Алгоритмы — это правила, предписывающие выполнение последовательностей действий, приводящих к решению задачи.


Нельзя приступить к программированию, не разработав предварительно алгоритм решения задачи.

Роль информатики в развитии общества чрезвычайно велика. С ней связано начало революции в области накопления, передачи и обработки информации. Эта революция затрагивает и коренным образом преобразует не только сферу материального производства, но и интеллектуальную, духовную сферы жизни человека.

2. Понятие термина "информация"

Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.

Информация — это общее понятие и его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.

В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют.


"Информировать" означает "сообщить нечто, неизвестное раньше".

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.


Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.

Так, сообщение, составленное на японском языке, не несёт никакой новой информации человеку, не знающему этого языка, но может быть информативным для человека, владеющего японским. Никакой новой информации не содержит и сообщение, изложенное на знакомом языке, если его содержание непонятно или уже известно.

Таким образом, информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем- человеком.


 

Однако в случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.

Применительно к компьютерной обработке данных под информацией понимают данные, т.е. некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.


 

3. Информация и данные

 

Кратко, но неполно связь между информацией и данными можно охарактеризовать следующим образом.

Информация – это есть полезное содержание данных.   Данные – это есть форма представления информации. Более полно характеристика этой связи дается путем представления трех основных аспектов (сторон) информации: её прагматического, семантического и синтаксического содержания.

 

Прагматический аспект отражает соответствие информации достижению  цели, т.о. определяет полезность информации, содержащейся в данных.  Таким образом, оцениваются потребительские свойства информации.

Семантический аспект характеризует смысловое содержание информации и определяет степень соответствия информационного объекта и его образа, содержащегося в информации (данных).

Синтаксический аспект информации связан с формой её представления и не  затрагивает её смыслового содержания.

Поэтому  данные представляют только синтаксический аспект информации.

4. Формы существования информации

Информация может существовать в самых разнообразных формах:

  • в виде текстов, рисунков, чертежей, фотографий;
  • в виде световых или звуковых сигналов;
  • в виде радиоволн;
  • в виде электрических и нервных импульсов;
  • в виде магнитных записей;
  • в виде жестов и мимики;
  • в виде запахов и вкусовых ощущений;
  • в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.

Предметы, процессы или явления, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.

5. Виды  информации

 

Для выделения видов информации необходимо выбрать классификационные признаки, которыми обычно становятся существенные свойства информации и способы восприятия их человеком.

Так, с помощью зрения воспринимается визуальная информация, с помощью слуха аудиоинформация.

По степени значимости информации для субъекта информация подразделяется на виды: личная, специальная, общественная. 

Для классов информационных объектов выделяют такие виды информации, как естественная (для природных объектах), социальная, техническая.

Внутри этих видов возможно дальнейшее разделение их на подвиды, например, генетическая информация, социально-экономическая информация и т.п.

По типу данных информацию делят на числовую, текстовую, графическую, звуковую, видеоинформацию.

6. Как передаётся информация

Информация передаётся в виде сообщений от источника информации к её приёмнику посредством канала связи между ними. Источник посылает передаваемое сообщение, которое кодируется в передаваемый сигнал. Этот сигнал посылается по каналу связи. В результате в приёмнике появляется принимаемый сигнал, который декодируется и становится принимаемым сообщением.


 

Например, сообщение, содержащее информацию о прогнозе погоды, передаётся приёмнику (телезрителю) от источника — специалиста-метеоролога посредством канала связи — телевизионной передающей аппаратуры и телевизора.

Передача информации по каналам связи часто сопровождается воздействием помех, вызывающих искажение и потерю информации.

 

7. Понятие о количестве информации

Возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:

В определенных условиях можно пренебречь качественными особенностями информации и выразить её количество числом, а также сравнить количество информации, содержащейся в различных группах данных.


Понятие "количество информации", основано на том, что информацию, содержащуюся в сообщении, можно трактовать в смысле её новизны или уменьшения неопределённости наших знаний об объекте.

Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.

Формула Хартли:      I = log2N.   


Пусть нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 = 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.

Для неравновероятных сообщений американский учёный Клод Шеннон предложил в 1948 г. другую формулу определения количества информации, учитывающую возможную неодинаковую вероятность сообщений в наборе.

Формула Шеннона: I = – ( p1 log2 p1 + p2 log2 p2 + . . . + pN log2 pN ), 
где pi — вероятность того, что именно i-е сообщение выделено в наборе из N сообщений.


Легко заметить, что если вероятности p1, ..., pN равны, то есть каждая из них равна 1/N, то формула Шеннона превращается в формулу Хартли.

В качестве единицы информации условились принять один бит (англ. bit— двоичная цифра).

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.  
В вычислительной технике битом называют объем памяти, необходимый для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.


Бит —самая мелкая единица измерения. На практике чаще применяется более крупная единица — байт, равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные единицы информации:

  • 1 Килобайт (Кбайт) = 1024 байт = 210 байт,
  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт,
  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт.

В последнее время в связи с увеличением объёмов обрабатываемой информации входят в употребление такие производные единицы, как:

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт,
  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт.

За единицу информации можно было бы выбрать количество информации, необходимое для различения, например, десяти равновероятных сообщений. Тогда это будет не двоичная (бит), а десятичная единица информации (дит).

8. Свойства информации

Свойства информации следующие:

Информация о работе Лекции по "Информатике"