Автор работы: Пользователь скрыл имя, 17 Октября 2013 в 05:31, контрольная работа
Существует несколько взглядов на то, что принято считать информацией. Один взгляд, и его, по-видимому, придерживается большая часть специалистов и неспециалистов сводится к тому, что существует как бы два сорта информации:
1).Информация техническая, которая передаётся по телеграфным линиям и отображается на экранах радиолокаторов. Количество такой информации может быть точно вычислено, и процессы, происходящие с такой информацией, подчиняются физическим законам.
2). Информация семантическая, то есть смысловая. Это та самая информация, которая содержится, к примеру, в литературном произведении. Для такой информации предлагаются различные количественные оценки и даже строятся математические теории.
1. Определение информации. Наука информатика…………………..-3
Введение………………………………………………………………...-3
1.1. Определение информации………………………………………...-4
1.2. Наука информатика………………………………………………..-5
2. Методы представления информации. Количество
и единицы измерения информации. Двоичная система счисления……….-8
2.1. Методы представления информации…………………………….-8
2.2. Количество и единицы измерения информации………………..-8
2.3. Двоичная система счисления……………………………………-11
Заключение……………………………………………………………-13
Список литературы……………………………………………………-14
НЕГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ УЧРЕЖДЕНИЕ
ВЫСШЕГО ПРОФЕССИОНАЛЬНОГО ОБРАЗОВАНИЯ
БАЙКАЛЬСКИЙ ЭКОНОМИКО-ПРАВОВОЙ ИНСТИТУТ
ФАКУЛЬТЕТ ЭКОНОМИКИ И УПРАВЛЕНИЯ
СПЕЦИАЛЬНОСТЬ «МЕНЕДЖМЕНТ ОРГАНИЗАЦИИ»
ЗАЧЕТ
ПО ДИСЦИПЛИНЕ «ИНФОРМАТИКА»
|
Выполнил: студент заочной формы обучения
КОНДРИНА НАТАЛЬЯ ИВАНОВНА ( подпись, дата )
Логин ______
Проверил______________________
Оценка_____________ Подпись______________
Улан-Удэ
2011
Содержание
1. Определение информации. Наука информатика…………………..-3
Введение…………………………………………………………
1.1. Определение информации………………………………………...-4
1.2. Наука информатика……………………………………………….
2. Методы представления информации. Количество
и единицы измерения информации. Двоичная система счисления……….-8
2.1. Методы представления информации…………………………….-8
2.2. Количество и единицы измерения информации………………..-8
2.3. Двоичная система счисления……………………………………-11
Заключение……………………………………………………
Список литературы…………………………………
Введение.
Существует несколько взглядов на то, что принято считать информацией. Один взгляд, и его, по-видимому, придерживается большая часть специалистов и неспециалистов сводится к тому, что существует как бы два сорта информации:
1).Информация
техническая, которая передаётся
по телеграфным линиям и
2). Информация
семантическая, то есть смысловая.
Это та самая информация,
которая содержится, к примеру,
в литературном произведении. Для
такой информации
Второй взгляд состоит в том, что информация - это физическая величина, такая же, как, например, энергия или скорость. Определённым образом и в определённых условиях информация равным образом описывает как процессы, происходящие в естественных физических системах, так и процессы в системах, искусственно созданных.
Как всегда, при наличии
двух резко противоположных
Отдельно нужно измерять количество информации, причём количество информации - строгая оценка, относительно которой можно развивать единую строгую теорию. Кроме количества информации, следует измерять ещё и ценность. А вот с ценностью информации происходит то же самое, что и с понятием семантической информации. С одной стороны, вроде её можно вычислить, а с другой стороны, все эти вычисления справедливы лишь в ограниченном числе случаев. И вообще, кто может точно вычислить, скажем, ценность крупного научного открытия?
Термин "информация" происходит от латинского слова "informatio", что означает сведения, разъяснения, изложение.
Информация — это настолько общее и глубокое понятие, что его нельзя объяснить одной фразой. В это слово вкладывается различный смысл в технике, науке и в житейских ситуациях.
В обиходе информацией называют любые данные или сведения, которые кого-либо интересуют. Например, сообщение о каких-либо событиях, о чьей-либо деятельности и т.п. "Информировать" в этом смысле означает "сообщить нечто, неизвестное раньше".
Информация — сведения об объектах и явлениях окружающей среды, их параметрах, свойствах и состоянии, которые воспринимают информационные системы (живые организмы, управляющие машины и др.) в процессе жизнедеятельности и работы.
Одно и то же информационное сообщение (статья в газете, объявление, письмо, телеграмма, справка, рассказ, чертёж, радиопередача и т.п.) может содержать разное количество информации для разных людей — в зависимости от их предшествующих знаний, от уровня понимания этого сообщения и интереса к нему.
Так, сообщение,
составленное на японском языке, не несёт
никакой новой информации человеку,
не знающему этого языка, но может
быть высокоинформативным для
Информация есть характеристика не сообщения, а соотношения между сообщением и его потребителем. Без наличия потребителя, хотя бы потенциального, говорить об информации бессмысленно.
В случаях, когда говорят об автоматизированной работе с информацией посредством каких-либо технических устройств, обычно в первую очередь интересуются не содержанием сообщения, а тем, сколько символов это сообщение содержит.
Применительно к компьютерной обработке данных под информацией понимают некоторую последовательность символических обозначений (букв, цифр, закодированных графических образов и звуков и т.п.), несущую смысловую нагрузку и представленную в понятном компьютеру виде. Каждый новый символ в такой последовательности символов увеличивает информационный объём сообщения.
Информатика - молодая научная дисциплина,
изучающая вопросы, связанные с
поиском, сбором, хранением, преобразованием
и использованием информации в самых
различных сферах человеческой деятельности.
Генетически информатика
До настоящего времени толкование термина «информатика» (в том смысле как он используется в современной научной и методической литературе) еще не является установившимся и общепринятым. Обратимся к истории вопроса, восходящей ко времени появления электронных вычислительных машин.
После второй мировой войны возникла и начала бурно развиваться кибернетика как наука об общих закономерностях в управлении и связи в различных системах: искусственных, биологических, социальных. Рождение кибернетики принято связывать с опубликованием в 1948 г. американским математиком Норбертом Винером, ставшей знаменитой, книги «Кибернетика или управление и связь в животном и машине». В этой работе были показаны пути создания общей теории управления и заложены основы методов рассмотрения проблем управления и связи для различных систем с единой точки зрения. Развиваясь одновременно с развитием электронно-вычислительных машин, кибернетика со временем превращалась в более общую науку о преобразовании информации. Под информацией в кибернетике понимается любая совокупность сигналов, воздействий или сведений, которые некоторой системой воспринимаются от окружающей среды (входная информация X), выдаются в окружающую среду (выходная информация У), а также хранятся в себе (внутренняя, внутрисистемная информация Z).
Развитие кибернетики в нашей стране встретило идеологические препятствия. Как писал академик А.И.Берг, «... в 1955-57 гг. и даже позже в нашей литературе были допущены грубые ошибки в оценке значения и возможностей кибернетики. Это нанесло серьезный ущерб развитию науки в нашей стране, привело к задержке в разработке многих теоретических положений и даже самих электронных машин». Достаточно сказать, что еще в философском словаре 1959 года издания кибернетика характеризовалась как «буржуазная лженаука». Причиной этому послужили, с одной стороны, недооценка новой бурно развивающейся науки отдельными учеными «классического» направления, с другой - неумеренное пустословие тех, кто вместо активной разработки конкретных проблем кибернетики в различных областях спекулировал на полуфантастических прогнозах о безграничных возможностях кибернетики, дискредитируя тем самым эту науку.
Дело к тому же осложнялось тем, что развитие отечественной кибернетики на лротяжении многих лет сопровождалось серьезными трудностями в реализации крупных государственных проектов, например, создания автоматизированных систем управления (АСУ). Однако за это время удалось накопить значительный опыт создания информационных систем и систем управления технико-экономическими объектами. Требовалось выделить из кибернетики здоровее научное и техническое ядро и консолидировать силы для развития нового движения к давно уже стоящим глобальным целям.
Подойдем сейчас к этому вопросу
с терминологической точки
Попытку определить, что же такое современная информатика, сделал в 1978 г. Международный конгресс по информатике: «Понятие информатики охватывает области, связанные с разработкой, созданием, использованием и материально-техническим обслуживанием систем обработки информации, включая машины, оборудование, математическое обеспечение, организационные аспекты, а также комплекс промышленного, коммерческого, административного и социального воздействия».
2.1. Методы представления
Информация может существовать в самых разнообразных формах:
в виде текстов, рисунков, чертежей, фотографий;
в виде световых или звуковых сигналов;
в виде радиоволн;
в виде электрических и нервных импульсов;
в виде магнитных записей;
в виде жестов и мимики;
в виде запахов и вкусовых ощущений;
в виде хромосом, посредством которых передаются по наследству признаки и свойства организмов и т.д.
Предметы, процессы, явления материального или нематериального свойства, рассматриваемые с точки зрения их информационных свойств, называются информационными объектами.
Какое количество информации содержится, к примеру, в тексте романа "Война и мир", в фресках Рафаэля или в генетическом коде человека? Ответа на эти вопросы наука не даёт и, по всей вероятности, даст не скоро.
А возможно ли объективно измерить количество информации? Важнейшим результатом теории информации является вывод:
В определенных,
весьма широких условиях можно пренебречь
качественными особенностями
В настоящее время получили распространение подходы к определению понятия "количество информации", основанные на том, что информацию, содержащуюся в сообщении, можно нестрого трактовать в смысле её новизны или, иначе, уменьшения неопределённости наших знаний об объекте.
Так, американский инженер Р. Хартли (1928 г.) процесс получения информации рассматривает как выбор одного сообщения из конечного наперёд заданного множества из N равновероятных сообщений, а количество информации I, содержащееся в выбранном сообщении, определяет как двоичный логарифм N.
Формула Хартли: I = log2N.
Допустим, нужно угадать одно число из набора чисел от единицы до ста. По формуле Хартли можно вычислить, какое количество информации для этого требуется: I = log2100 ” 6,644. То есть сообщение о верно угаданном числе содержит количество информации, приблизительно равное 6,644 единиц информации.
Приведем другие примеры равновероятных сообщений:
Информация о работе Определение информации. Наука информатика. Методы представления информации