Информационные технологии

Автор работы: Пользователь скрыл имя, 02 Апреля 2014 в 00:34, контрольная работа

Краткое описание

Любая информация (числовая, текстовая, звуковая, графическая и т.д.) в компьютере представляется (кодируется) в так называемой двоичной форме. Как оперативная, так и внешняя память, где и хранится вся информация, могут рассматриваться, как достаточно длинные последовательности из нулей и единиц. Под внешней памятью подразумеваются такие носители информации, как магнитные и оптические диски, ленты и т.п.

Прикрепленные файлы: 1 файл

КР ИТ вся.docx

— 92.43 Кб (Скачать документ)

Вопрос №1(В) -Представление в памяти компьютера алфавитно-цифровой информации. Американский стандартный код обмена информацией - ASCII. Назначение альтернативной таблицы.

Любая информация (числовая, текстовая, звуковая, графическая и т.д.) в компьютере представляется (кодируется) в так называемой двоичной форме. Как оперативная, так и внешняя память, где и хранится вся информация, могут рассматриваться, как достаточно длинные последовательности из нулей и единиц. Под внешней памятью подразумеваются такие носители информации, как магнитные и оптические диски, ленты и т.п.

Единицей измерения информации является бит (BInary digiT) -- именно такое количество информации содержится в ответе на вопрос: нуль или один? Более крупными единицами измерения информации являются байт, килобайт (Kbyte), мегабайт (Mbyte), гигабайт (Gbyte) и терабайт (Tbyte). Один байт (byte) состоит из восьми бит, а каждая последующая величина больше предыдущей в 1024 раза.

Байта достаточно для хранения 256 различных значений, что позволяет размещать в нем любой из алфавитно-цифровых символов, если только мы можем ограничиться языками с небольшими алфавитами типа русского или английского. Первые 128 символов (занимающие семь младших бит) стандартизированы с помощью кодировки ASCII (American Standart Code for Information Interchange). Хуже обстоит дело с кодировками русского текста (символы русского алфавита расположены во второй половине таблицы из 256 символов) -- их несколько, а наиболее распространенные из них сейчас две -- Windows-1251 и KOI8-R.

Для кодирования всех возможных символов, используемых народами мира, одного байта мало -- необходимо использовать два последовательных (стандарт Unicode). Именно так и поступают при хранении символьных (char) значений в языке Java.

Полезно знать, что . Учитывая, что в книге среднего размера около 300000 букв, легко подсчитать, что даже не используя никаких средств сжатия информации, на жестком диске современного персонального компьютера емкостью в 20 гигабайт можно разместить большую библиотеку из почти 70000 книг.

 

 

ASCII —  (англ. American Standard Code for Information Interchange — американский стандартный код для обмена информацией) - ASCII представляет собой 7-битную кодировку для представления десятичных цифр, латинского и национального алфавитов, знаков препинания и управляющих символов.


 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вопрос №2 (Ы) - Понятие алгоритма, исполнителя алгоритма, входные и выходные данные алгоритма.Свойства алгоритмов. Способы описания алгоритмов. Основные соглашения, используемые при составлении блок-схем. Критерии построения алгоритмов. Виды алгоритмов. Основные этапы решения задачи на ПЭВМ.

 

Под алгоритмом понимают постоянное и точное предписание (указание) исполнителю совершить определенную последовательность действий, направленных на достижение указанной цели или решение поставленной задачи

 

Исполнитель алгоритма - объект, который выполняет алгоритм.

Идеальными исполнителями являются машины, роботы, компьютеры...

Исполнитель способен выполнить только ограниченное количество команд. Поэтому алгоритм разрабатывается и детализируется так, чтобы в нем присутствовали только те команды и конструкции, которые может выполнить исполнитель.

Исполнитель, как и любой объект, находится в определенной среде и может выполнять только допустимые в нем действия. Если исполнитель встретит в алгоритме неизвестную ему команду, то выполнение алгоритма прекратится.

Компьютер – автоматический исполнитель алгоритмов.

Алгоритм, записанный на «понятном» компьютеру языке программирования, называется программой.

Программирование - процесс составления программы для компьютера. Для первых ЭВМ программы записывались в виде последовательности элементарных операций. Это была очень трудоемкая и неэффективная работа. Поэтому в последствии были разработанные специальные языки программирования. В настоящее время существует множество искусственных языков для составления программ. Однако, так и не удалось создать идеальный язык, который бы устроил бы всех.

 

Данные, обрабатываемые алгоритмом, делятся на входные, промежуточные и выходные. Специфика входных и выходных данных состоит в том, что с ними имеет дело не только алгоритм, но и пользователь программы. Поэтому различают две формы представления таких данных -- внешнее и внутреннее.

 

Основными свойствами алгоритма являются:

  1. детерминированность (определенность). Предполагает получение однозначного результата вычислительного процecca при заданных исходных данных. Благодаря этому свойству процесс выполнения алгоритма носит механический характер;
  2. результативность. Указывает на наличие таких исходных данных, для которых реализуемый по заданному алгоритму вычислительный процесс должен через конечное число шагов остановиться и выдать искомый результат;
  3. массовость. Это свойство предполагает, что алгоритм должен быть пригоден для решения всех задач данного типа;
  4. дискретность. Означает расчлененность определяемого алгоритмом вычислительного процесса на отдельные этапы, возможность выполнения которых исполнителем (компьютером) не вызывает сомнений.

 

Алгоритм должен быть формализован по некоторым правилам посредством конкретных изобразительных средств. К ним относятся следующие способы записи алгоритмов: словесный, формульно-словесный, графический, язык операторных схем, алгоритмический язык.

Наибольшее распространение благодаря своей наглядности получил графический (блок-схемный) способ записи алгоритмов.

Блок-схемой называется графическое изображение логической структуры алгоритма, в котором каждый этап процесса обработки информации представляется в виде геометрических символов (блоков), имеющих определенную конфигурацию в зависимости от характера выполняемых операций. Перечень символов, их наименование, отображаемые ими функции, форма и размеры определяются ГОСТами.

При всем многообразии алгоритмов решения задач в них можно выделить три основных вида вычислительных процессов:

  • линейный;
  • ветвящийся;
  • циклический.

Линейным называется такой вычислительный процесс, при котором все этапы решения задачи выполняются в естественном порядке следования записи этих этапов.

Ветвящимся называется такой вычислительный процесс, в котором выбор направления обработки информации зависит от исходных или промежуточных данных (от результатов проверки выполнения какого-либо логического условия).

 

Циклом называется многократно повторяемый участок вычислений. Вычислительный процесс, содержащий один или несколько циклов, называется циклическим. По количеству выполнения циклы делятся на циклы с определенным (заранее заданным) числом повторений и циклы с неопределенным числом повторений. Количество повторений последних зависит от соблюдения некоторого условия, задающего необходимость выполнения цикла. При этом условие может проверяться в начале цикла — тогда речь идет о цикле с предусловием, или в конце — тогда это цикл с постусловием.

 

 

Основные этапы решения задачи на ПЭВМ.

1. Постановка задачи:

•   сбор информации о задаче;

•   формулировка условия задачи;

•   определение конечных целей решения задачи;

•   определение формы выдачи результатов;

•   описание данных (их типов, диапазонов величин, структуры и т. п.).

2. Анализ и исследование задачи, модели:

•   анализ существующих аналогов;

•   анализ технических и программных средств;

•   разработка математической модели;

•   разработка структур данных.

3. Разработка алгоритма:

•   выбор метода проектирования алгоритма;

•    выбор формы записи алгоритма (блок-схемы, псевдокод и др.);

•    выбор тестов и метода тестирования;

•    проектирование алгоритма.

4. Программирование:

•   выбор языка программирования;

•   уточнение способов организации данных;

•   запись алгоритма на выбранном языке

программирования.

5. Тестирование и отладка:

•   синтаксическая отладка;

•   отладка семантики и логической структуры;

•    тестовые расчеты и анализ результатов тестирования;

•   совершенствование программы.

6. Анализ результатов решения  задачи и уточнение в случае  необходимости математической модели  с повторным выполнением этапов 2-5.

7. Сопровождение программы:

•   доработка программы для решения конкретных задач;

•   составление документации к решенной задаче, к математической модели, к алгоритму, к программе, к набору тестов, к использованию.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Вопрос №3 (Д) - Понятие информации. Виды и свойства информации. Единицы измерения информации. Понятие информационной технологии (ИТ). Этапы развития ИТ. Понятие компьютерной информационной технологии.

 

Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.

 

Информация может существовать в виде:

  • текстов, рисунков, чертежей, фотографий;
  • световых или звуковых сигналов;
  • радиоволн;
  • электрических и нервных импульсов;
  • магнитных записей;
  • жестов и мимики;
  • запахов и вкусовых ощущений;
  • хромосом, посредством которых передаются по наследству признаки и свойства организмов, и т. д.

 

Информация обладает следующими свойствами:

  • достоверность 
  • полнота
  • точность
  • ценность
  • своевременность
  • понятность 
  • доступность
  • краткость и т. д.

Единицы измерения информации

В качестве еденицы измерения информации условились принять один бит (англ. bit — binary, digit — двоичная цифра).

За еденицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее неопределённость в два раза. Такая еденица называется бит.

Бит в теории информации — количество информации, необходимое для различения двух равновероятных сообщений.

А вычислительной технике битом называют наименьшую "порцию" памяти, необходимую для хранения одного из двух знаков "0" и "1", используемых для внутримашинного представления данных и команд.

Бит — слишком мелкая еденица измерения. На практике чаще применяются более крупная еденица — байт равная восьми битам. Именно восемь битов требуется для того, чтобы закодировать любой из 256 символов алфавита клавиатуры компьютера (256=28).

Широко используются также ещё более крупные производные еденицы информации:

  • 1 Килобайт (Кбайт) = 1024 байта = 210 байт
  • 1 Мегабайт (Мбайт) = 1024 Кбайт = 220 байт
  • 1 Гигабайт (Гбайт) = 1024 Мбайт = 230 байт

В последнее время в связи с увелечением объёмов информации входят в употребление такие производные еденицы как:

  • 1 Терабайт (Тбайт) = 1024 Гбайт = 240 байт
  • 1 Петабайт (Пбайт) = 1024 Тбайт = 250 байт

 
Информационная технология - это совокупность методов, производственных процессов и программно-технических средств, объединенных в технологическую цепочку, обеспечивающую сбор, обработку, хранение, передачу информации с целью снижения трудоемкости процессов использования информационных ресурсов, повышения их надежности и оперативности. 
 
Этапы развития информационных технологий 
 
Историю развития информационных технологий, связанных с вычислительной техникой можно условно разделить на этапы: 
 
1-й этап (до конца 60-х гг.) характеризуется проблемой обработки больших объемов данных в условиях ограниченных возможностей аппаратных средств. До 70-х годов вычислительная техника развивалась без опоры на массовый рынок, но зато с опорой на фундаментальную науку. Например, респектабельная фирма IBM имела мощное научно-исследовательское подразделение, архитектура и операционные системы больших ЭВМ разрабатывались с учетом дальнейшего развития. Пользователи таких ЭВМ были в основном профессионалы - специалисты по радиоэлектронике, программисты с серьезной математической подготовкой. 
 
2-й этап (до конца 70-х гг.) связывается с распространением ЭВМ серии IВМ/360. Проблема этого этапа - отставание программного обеспечения от уровня развития аппаратных средств. Появление ПК (середина 70-х годов) тесно связано с изобретением микропроцессоров - интегральных схем, аналогичных по функциям процессору больших ЭВМ. Среди основных потребителей этих устройств были радиолюбители и студенты-энтузиасты, в среде которых и созрели основные идеи ПК. На развитие информационных технологий повлияло не только студенческое родство, но и приобщение массового пользователя и сугубо рыночный характер усилий производителей ПК, поэтому технологии ПК носили несколько стихийный характер и потеряли свою фундаментальность. Те же базы данных 70-х годов были шагом назад по сравнению с базами данных больших ЭВМ, несмотря на свою простоту и наглядность. 
 
3-й этап (с начала 80-х гг.) - ПК становится инструментом непрофессионального пользователя, а информационные системы - средством поддержки принятия его решений. Если до появления ПК С ЭВМ работали только специалисты (электронщики и программисты), то после появления ПК в жизнь вошло понятие пользователей, т.е. специалистов других специальностей, использующих ПК в своей профессиональной деятельности, для обучения или развлечений.  
 
4-й этап (с начала 90-х гг. и до настоящего времени) - создание современной технологии межорганизационных связей и информационных систем. Важнейшая роль отводится коммуникационным технологиям. Для настоящего времени характерно - быстрый темп увеличения объемов внешней и оперативной памяти ПК, скорости обработки данных процессором, огромный набор программных средств, как системного, так и прикладного назначения.

Информация о работе Информационные технологии