Информация вокруг нас

Автор работы: Пользователь скрыл имя, 29 Декабря 2013 в 10:01, курсовая работа

Краткое описание

Информатика как наука об информации и, в частности, теоретическая информатика в информодинамике есть проблема неизмеримо большая, чем теория информации. Анализ истории термина «информация» позволяет глубже понять некоторые современные аспекты и разночтения его употребления. Это латинское слово означает: «придание формы, свойств». В XIV веке слово «информация» стало означать и передачу знаний с помощью книг. Таким образом, смысл этого слова смещался от понятий «вдохновение», «оживление» к понятиям «сообщение», «сюжет». И рамками лишь двух последних понятий пытались ограничить развитие информационных концепций некоторые из философов, которые были противниками информационного подхода к естественнонаучным и гуманитарным проблемам.

Содержание

Введение
Уровни информации:
Статистический
Синтаксический
Семантический
Целевой (волевой)
Количественное измерение информации
Вычисление количества информации и симметрия
Что измерил Клод Шеннон?
Законы информодинамики
Первый закон информодинамики
Второй закон информодинамики
Информация и созидательная деятельность
Информация, термодинамика и структура
Информационная система иерархична
Информация и живые организмы
Информация в биосистемах
Информационный код в биологических объектах
Плотность информации в биосистемах
Архивирование информации в биосистемах
Ограниченность адаптации биологических видов
Заключение
Список литературы

Прикрепленные файлы: 1 файл

информация вокруг нас.doc

— 206.50 Кб (Скачать документ)

Так, например, при подсчете количества информации, содержащейся в таких двух сообщениях, как «очередную партию Каспаров играет белыми» и «у гражданина Белова родился сын» получится одна и та же величина – 1 бит. Нет сомнения, что два этих сообщения несут разный смысл и имеют далеко не равнозначную ценность для гражданина Белова. Однако, как было отмечено выше, оценка смысла и ценности информации находится за пределами компетенции теории информации и поэтому не влияет на подсчитываемое с помощью формулы Шеннона количество бит.

Игнорирование смысла и  ценности информации не помешало Шеннону  решать прикладные задачи, для которых  предназначалась первоначально  его теория.

Такой сугубо прагматичный подход позволил Шеннону ввести единую, не зависящую от смысла и ценности, меру количества информации, которая оказалась пригодной для анализа всех обладающих той или иной степенью упорядоченности систем.

После основополагающих работ Шеннона начали разрабатываться  основы смысловой (семантической) и  ценностной (прагматической, аксиологической) информационных теорий .

Однако ни одной из этих теорий и предлагаемых их авторами единиц измерения ценности или смысла не суждено было приобрести такую  же степень универсальности, какой  обладает мера, которую ввел в науку  Шеннон.

Дело в том, что количественные оценки смысла и ценности информации могут производиться только после предварительного соглашения о том, что же именно в каждом конкретном случае имеет для рассматриваемых явлений ценность и смысл. Нельзя одними и теми же единицами  измерить  ценность  информации, содержащейся, скажем, в законе Ома и в признании любви. Иными словами, критерии смысла и ценности всегда субъективны, а потому применимость их ограничена, в то время как мера, предложенная Шенноном, полностью исключает субъективизм при оценке степени упорядоченности структуры исследуемых систем.

Так что же характеризует  подсчитанная по формуле Шеннона  величина энтропии текста, выражаемая количеством бит? Только лишь одно свойство этого текста - степень его упорядоченности или, иными словами, степень его отклонения от состояния полного хаоса, при котором все буквы имели бы равную вероятность, а текст превратился бы в бессмысленный набор букв.

Упорядоченность текста (или любой другой исследуемой системы) будет тем больше, чем больше различие вероятностей и чем больше вероятность последующего события будет зависеть от вероятностей предыдущих событий1.

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  1. ЗАКОНЫ ИНФОРМОДИНАМИКИ
    1. Первый закон информодинамики

Может ли набор символов, знаков случайно стать воспринимаемой информацией, имеющей правильный синтаксис и какую-либо семантику — смысловое значение?

Рассмотрим простейший пример. Запишем  простое и краткое сообщение:

ВАНЯ+ТАНЯ=ЛЮБОВЬ

Сообщение содержит 16 символов из расширенного русского алфавита, включающего арифметические знаки. Будем полагать, что сообщение  строится случайным перебором букв, например, обезьяна наугад перебирает по клавишам печатной машинки. Для простоты условимся считать такой алфавит не превышающим 32-х знаков. Вероятность того, что первая буква сообщения будет отгадана правильно, составляет 1/32. Такова же вероятность угадывания второй и третьей и любой прочей буквы (знака). Общая вероятность будет равна произведению 16 таких вероятностей, т.е. (1/32)16 = (1/2)80 ≈ 10-24.

По порядку величины эта вероятность  равна тому, что у молекул 1 моля газа под поршнем вдруг появится скорость, направленная в одну сторону  и второе начало термодинамики будет нарушено: внутренняя энергия газа перейдет в кинетическую энергию поршня почти целиком!

Вероятность такого события чрезвычайно  мала. А ведь информационное сообщение  нарочно выбрано самое простейшее. Отсюда следует вывод: случайным образом информация появиться не может. Ее может создать и представить в виде набора символов только разум. Разум же рождающий информацию всегда идет от цели и семантики к синтаксису и коду, но не наоборот. Сначала нужно понять, что хочешь напечатать, а уже потом перебирать пальцами по клавиатуре.

На это часто выдвигается  такое возражение: вероятность по буквам случайно набрать данное конкретное сообщение действительно исчезающе  мала. Но, во-первых, мы мыслим не буквами, а понятиями, словами. Во-вторых, конкретных значащих сообщений из них можно составить также практически бесконечное количество. Какова же вероятность, что, наугад перебирая не буквы, а слова, мы случайно составим нужное предложение?

В этом нам поможет комбинаторика. Хотя из слов можно составить невообразимое количество комбинаций, в том числе и осмысленных, но бессмысленных из них будет несравненно больше. Подобно тому, как рациональных и иррациональных чисел на отрезке бесконечно много, но “иррациональная бесконечность из них больше”.

Прежде, чем перейти на уровень слов, довольно сложный для расчета, прикинем, какова вероятность, что, наугад взяв четыре буквы, мы получим просто любое значащее слово. Комбинаций из 32 букв по четыре штуки можно составить 324=220=(210)2 =106 . Миллион вариантов! Для сравнения: словарь Даля, всем запасом которого в наше время не владеет ни один русский человек, содержит, 150 тысяч слов. Причем чем больше мы допустим для перебора букв или слов, чем шире возможность маневра, тем быстрее — в геометрической прогрессии — исчезает вероятность случайного попадания.

В самом деле, возьмем теперь язык, состоящий из 30 тысяч слов — обиход современного разговорного языка. Сколько из этих слов можно составить различных предложений длиною, положим, в четыре слова? Предлоги, артикли, междометия, как в телеграмме, не учитываем, только значащие слова. Получаем (30 000)4 =1018. А сколько из них получится не лишенных хотя бы какого-нибудь смысла? Тысячу, миллион, миллиард? Это сказать трудно, надо сидеть и перебирать варианты.

Чем более серьезную мысль нам хочется выразить, тем больше нам приходится расширять свой язык, объем своего сообщения. При этом количество возможных комбинаций слов или букв нарастает по закону показательной или степенной функции. Такую мысль все труднее и труднее угадать случайно.

Итак, “первый  закон” информатики (информодинамики) можно выразить так: информация порождается (создается) только разумом, но не случаем. Информация не возникает из ничего, что очень похоже на первое начало термодинамики: энергия не возникает из ничего.

 

 

    1. Второй закон информодинамики

Информация, выраженная в наборе символов, знаков (на статистическом уровне) может храниться на самых различных материальных носителях, только бы они были способны не терять и не искажать ее. Значение информации совершенно не зависит от способа ее хранения: на бумаге, на дискете, в электронной памяти, в звукозаписи голоса. Можно роман “Евгений Онегин” написать гусиным пером, а можно компьютерные “стихи” хранить в самой совершенной электронной памяти — семантика информации не будет зависеть от материального носителя.

Относительно любой  информации, записанной любым способом на любых носителях, замечено никогда  не нарушаемое общее правило: при  механическом копировании и хранении информация не улучшается, т.е. в лучшем случае сохраняется, а в реальном она частично может утратиться, частично же — засориться случайным попаданием посторонних шумовых сигналов (мутации). Всякий, кто имел дело с аудио- и видеокассетами и дискетами, переписанными по нескольку раз, прекрасно это знает. Древние рукописи переписывались всегда грамотными переписчиками и проверялись. Особую осторожность при этом нужно было соблюдать при переводах с одного языка на другой. До этой работы допускались люди не только в совершенстве знающие языки, но и сведущие в самих писаниях, правильно понимающие их содержание. До сих пор для перевода научных или каких-то иных специальных текстов требуются переводчики грамотные, понимающие смысл переводимого.

“Второе начало информодинамики”, гласящее, что информация при хранении и копировании не созидается и не улучшается, к тому же стремится самопроизвольно утратиться с превращением значащего сигнала в информационный шум, — вполне сходно со вторым началом термодинамики.

Оба закона, таким образом, на разных уровнях бытия материи  выражают некую еще общую закономерность, иллюстрируемую с помощью теории вероятностей. Эта же закономерность может быть продемонстрирована просто на рабочем столе или в доме, она же видится и в развитии общественных процессов. Любого рода беспорядок, хаос, разрушение, отсутствие структуры и организации более вероятны и самопроизвольно самые разные процессы — не только термодинамические — идут по линии нарастания хаоса. Пресекается же хаос только разумным приложением направленной энергии.

 

 

  1. ИНФОРМАЦИЯ  И  СОЗИДАТЕЛЬНАЯ   ДЕЯТЕЛЬНОСТЬ

Для того чтобы перевести  материю в более структурно организованное состояние (построить, к примеру, дом), необходима, прежде всего, сама материя (материалы), затем направленная (нетепловая) энергия — механическая, электрическая, и, наконец, самое главное — информация. Нужен план здания, заранее составленный со всеми подробностями. Нужны технические знания: как класть кирпичи или готовить раствор. Без этого дома не построишь. Случайная деятельность с предметами, когда направленная энергия прилагается к материи нецеленаправленно, способна только усилить беспорядок.

Конструктор создает машину в виде идей на семантическом уровне. Мысль свою он выражает общими расчетами, словами, эскизами. Детали этих идей могут дорабатывать его помощники — сотрудники КБ. Технолог переводит эту семантику на синтаксический уровень, разрабатывая последовательность операций при изготовлении деталей и узлов. Рабочий переводит синтаксис технологии непосредственно в “код” изделия. Изделие, таким образом, несет на себе идеи конструктора, записанные по правилам информатики на особом сложном языке технологии. После изготовления изделие проверяется. Сначала контролируется изготовление частей и правильность их сборки (синтаксический уровень). Затем проверяется работоспособность каких-то подсистем (например, двигатель в самолете). Затем идет опробование всего изделия — испытательный полет самолета, к примеру. Идея возвращается к своему автору уже в воплощенном виде.  

  1. ИНФОРМАЦИЯ, ТЕРМОДИНАМИКА  И  СТРУКТУРА

Итак, в основе законов  термодинамики и передачи информации (информодинамики) лежит одно и то же общее понятие — вероятность. Как мы уже отмечали выше, шум и хаос более вероятны. Все в мире стремится к максимуму вероятности, потому энтропия растет, а информация не возникает самопроизвольно и портится при передаче.

Однако между термодинамикой и информатикой должно быть при всем их сходстве некоторое качественное отличие. Еще бы, ведь об информации нельзя говорить, не восходя, в конце концов, к понятию разума.

Противоположность беспорядку и энтропии представляет структура. Это понятие встречается и в термо- и в информо- динамике. С помощью хаотически движущихся молекул газа никакого сообщения не выразить. Надо их упорядочить, снизить энтропию, расставить элементы в каком-либо порядке.

Термодинамика может  решить эту проблему просто: надо газ  охладить и превратить в жидкость, а затем в кристалл. В кристалле энтропия снижена и порядок (структура) уже налицо. Но много ли при этом сама структура может создать информации? Иными словами может ли не порядок, а сама информация быть следствием чисто механико-статистического процесса — снижения энтропии?

Отчасти, конечно, да. Любой  кристалл несет информацию о своей  структуре. Но попробуем вычислить  ее на примере кристалла поваренной соли. Его элементарная ячейка — кубик, в вершинах которого чередуются ионы хлора и натрия.  По одному байту уйдет на запись названий этих элементов, еще один байт потребуется, чтобы изобразить куб с этими ионами в вершинах — и все! Теперь только умножайте, тиражируйте эту информацию во всех направлениях, указывая на сколько шагов и в каком направлении сдвинуть элементарную решетку — и вы получите любой кристалл в самом кратком его информационном описании. Симметрия многократно экономит информацию, как мы видели только что.

А вот с молекулой  ДНК или белка такой фокус  не пройдет. Там для записи каждого нуклеотида или аминокислоты на своем месте потребуется свой байт информации. Там симметрии нет. А информации очень много. Конечно и случайное нагромождение частиц, не несущее никакого смысла, для своего описания потребовало бы много информации, но в случайном нагромождении и самой структуры-то нет, а в живой клетке она, безусловно, есть. Белки состоят строго определённых аминокислот, а нуклеиновые кислоты — из четко определенных нуклеотидов. Иными словами, есть четко определенные символы, четко определенные правила их комбинирования — синтаксис; цель всей работы — поддержание и воспроизведение жизни —  ясна и строго выполняется. Налицо огромная информационная система, которая содержит все уровни — от цели до кодов. И для кодирования этой системы требуется огромное количество информации.

Чтобы сопоставить упорядоченность  кристалла и живой молекулы, Х.Росс приводит такое сравнение. Представьте  себе текст Нового Завета и фразу  “Бог благ”, повторенную несколько  тысяч раз. Оба текста занимают одну и ту же по объему книгу, обе одинаково упорядочены, но ясно, что одна гораздо информативнее другой. [ Росс].

Информация о работе Информация вокруг нас