Автор работы: Пользователь скрыл имя, 29 Декабря 2013 в 10:01, курсовая работа
Информатика как наука об информации и, в частности, теоретическая информатика в информодинамике есть проблема неизмеримо большая, чем теория информации. Анализ истории термина «информация» позволяет глубже понять некоторые современные аспекты и разночтения его употребления. Это латинское слово означает: «придание формы, свойств». В XIV веке слово «информация» стало означать и передачу знаний с помощью книг. Таким образом, смысл этого слова смещался от понятий «вдохновение», «оживление» к понятиям «сообщение», «сюжет». И рамками лишь двух последних понятий пытались ограничить развитие информационных концепций некоторые из философов, которые были противниками информационного подхода к естественнонаучным и гуманитарным проблемам.
Введение
Уровни информации:
Статистический
Синтаксический
Семантический
Целевой (волевой)
Количественное измерение информации
Вычисление количества информации и симметрия
Что измерил Клод Шеннон?
Законы информодинамики
Первый закон информодинамики
Второй закон информодинамики
Информация и созидательная деятельность
Информация, термодинамика и структура
Информационная система иерархична
Информация и живые организмы
Информация в биосистемах
Информационный код в биологических объектах
Плотность информации в биосистемах
Архивирование информации в биосистемах
Ограниченность адаптации биологических видов
Заключение
Список литературы
С помощью рекламного объявления производитель старается убедить покупателя приобрести его продукцию. Этот целевой аспект информации нуждается в статистическом, синтаксическом и семантическом уровнях для получения ожидаемого отклика.
Все сказанное об уровнях информации можно выразить схемой:
УРОВНИ ИНФОРМАЦИИ |
ИСТОЧНИК |
ПРИЕМНИК |
СИСТЕМА |
ВОЛЕВОЙ |
поставил цель |
совершил ответное действие |
РАЗУМ |
СЕМАНТИЧЕСКИЙ |
продумал сообщение |
понял смысл сообщения | |
СИНТАКСИЧЕСКИЙ |
выразил мысль языком |
прочитал связный текст |
МАШИНА |
СТАТИСТИЧЕСКИЙ |
записал сообщение набором символов (знаков) |
расшифровал набор символов (знаков) | |
передал сигнал |
принял сигнал |
Информацию, записанную на материальных носителях, можно измерить. Самый простейший из таких способов — число букв, или слов. Немного сложнее — биты и байты.
Количество информации имеет лишь относительное значение для источника и приемника. Более важно это количество для передающей системы. Компьютеру, который хранит текст этой книги, абсолютно безразличен смысл написанного, и бумага тоже терпит все, лишь бы она вмещала все слова. И телеграфистке, и машинистке, которые копируют совершенно неважный для них текст, важны их собственные трудозатраты: количество напечатанных букв или слов. Потому, когда телеграмма написана, мы платим именно за количество слов, хотя на самом деле нас интересует “количество смысла”.
В известной легенде цвет корабельных парусов решил вопрос жизни и смерти героев. А ведь это был всего один бит информации! Каждый влюбленный также дорожит всего одним битом (да или нет), но это количество информации может определить множество поступков его жизни. Почему так? Потому что за этой ничтожно малой в механическом измерении информацией стоит большой смысл и большая цель, понятные лишь источнику и приемнику, и не входящие в обменное информационное сообщение, а то и вовсе недоступные для передачи через материальный носитель.
Итак, содержание информации далеко не всегда определяется ее измеряемым объемом. Вообще объем информации можно измерять лишь на нижних уровнях: статистическом и отчасти на синтаксическом, но уже не на смысловом. Но и на статистическом уровне информацию можно выразить разным объемом.
Наименьшая единица информации — бит, двоичный сигнал, устанавливающий разницу между да и нет, или точкой и тире. Одним таким сигналом невозможно выразить каждую букву алфавита. Потому, например, азбука Морзе все буквы выражает несколькими знаками: каждую в своей комбинации точек и тире. В компьютерах же под каждую букву (да еще и из нескольких алфавитов) или цифру, или знак препинания отведено 8 битов, т.е. восемь ячеек памяти, в каждой из которых может храниться ноль или единица. Комбинация нулей и единиц для каждого знака своя, но любая содержит ровно восемь знаков, каждый из которых может быть только нулем или единицею. Всего таких комбинаций по восемь штук из двух значений бита можно составить 28= 256, чего хватает с запасом на несколько алфавитов и разные служебные знаки и команды. Например, сочетание 00001111 — мы можем использовать для обозначения цифры 2, а для обозначения буквы Н, положим, 01010101. Нужно только всем договориться о единой системе такой кодировки, и каждый знак можно будет передавать восемью битами информации, которая именуется байтом.
Теперь, чтобы записать, к примеру, слово АБРОКАДАБРА нам потребуется 11 букв или 11 байт памяти нашего компьютера. Пока не станем задаваться вопросом: много ли смысла в такой затрате памяти. Возьмем и другое, не более значащее слово, выражающее, к примеру, чувство сильного страха: ААААААААААА. Сообщение состоит тоже из 11 букв, т.е. для его записи можно использовать 11 байт информации. А можно ли его выразить короче? В отличие от первого сообщения — можно. Например, в три байта: 11А. Почему это оказалось возможно? Потому что в записи второго слова есть линейная симметрия, или повторяемость. С точки зрения порядка, или вероятности случайного отгадывания каждого слова перебором букв оба слова равнозначны или равносложны. Перебирая 11 букв случайным образом для отгадывания каждого из обоих слов, мы будем располагать одним шансом из 3211. Но с точки зрения неслучайного отгадывания второе слово предпочтительнее. Нужно только один раз попасть в клавишу А на клавиатуре и задержать на ней палец.
С точки зрения количества информации оба слова неравны. Первое нельзя “сжать”, а второе можно. Существуют особые программы сокращения записи в компьютерах, которые по особым правилам сжимают повторяющиеся буквы или пробелы. Кроме того, для сжатия записи текста, содержащего только 32 буквы, можно каждую из них кодировать не целым байтом, не ячейкой из восьми битов, а ячейкой из пяти таких битов. Различных комбинаций из пяти нулей и единиц можно составить как раз 25=32, так что каждую букву можно при такой нужде закодировать лишь пятью, а не восемью битами. Это позволяет сжимать запись. Но, совершенно очевидно, что подобное сжатие возможно лишь до какого-то предела, который определяется элементами повторяемости или симметрии записи.
Лучше всего сжимаются в компьютере рисунки. Для передачи, положим, черно-белого рисунка, весь он разбивается на большое мозаичное поле, каждая мелкая клеточка которого, может быть черною или белою, в зависимости от того, попадает ли на нее черная или белая часть рисунка. Занумеровав последовательность всех клеток и, запомнив которые из них черные, а какие белые, можно зашифровать рисунок цифрами. Ясно, что для хорошей передачи требуется очень мелкая мозаика, но также ясно, что в любой такой мозаике будут повторяющиеся целые строчки из точек одного цвета. Чем мельче мы возьмем мозаику, тем большая требуется память для записи рисунка, но с другой стороны, тем больше возможностей для сокращения этой записи.
Если же в рисунке
есть повторяющийся элемент
Важнейшим шагом на пути постижения природы и механизмов антиэнтропийных процессов следует введение количественной меры информации. Первоначально эта мера предназначалась лишь для решения сугубо прикладных задач техники связи. Однако последующие исследования в области физики и биологии позволили выявить универсальные меры, предложенные К.Шенноном, позволяющие установить взаимосвязь между количеством информации и физической энтропией и в конечном счете определить сущность новой научной интерпретации понятия «информация» как меры структурной упорядоченности самых разнообразных по своей природе систем .
До введения в науку единой информационной количественной меры представленный в естественно-научных понятиях мир как бы «опирался на двух китов»: энергию и вещество. «Третьим китом» оказалась теперь информация, участвующая во всех протекающих в мире процессах, начиная от микрочастиц, атомов и молекул и кончая функционированием сложнейших биологических и социальных систем.
Естественно, возникает вопрос: подтверждают или опровергают эволюционную парадигму происхождения жизни и биологических видов новейшие данные современной науки?
Для ответа на этот вопрос необходимо, прежде всего, уяснить, какие именно свойства и стороны многогранного понятия «информация» отражает та количественная мера, которую ввел в науку К.Шеннон.
Использование меры количества информации позволяет анализировать общие механизмы информационно-энтропийных взаимодействий, лежащих в основе всех самопроизвольно протекающих в окружающем мире процессов накопления информации, которые приводят к самоорганизации структуры систем.
Вместе с тем информационно-
Проводимые современной наукой исследования свойств информационных систем дают все основания утверждать, что все системы могут формироваться только согласно спускаемым с верхних иерархических уровней правилам, причем сами эти правила существовали раньше самих систем в форме изначального плана.
Вопреки мнению самого К.Шеннона, предостерегавшего ученых против поспешного распространения предложенного им метода за пределы прикладных задач техники связи, этот метод стал находить все более широкое применение в исследованиях и физических, и биологических, и социальных систем .
Ключом к новому пониманию сущности феномена информации и механизма информационных процессов послужила установленная Л. Бриллюэном взаимосвязь информации и физической энтропии. Эта взаимосвязь была первоначально заложена в самый фундамент теории информации, поскольку для вычисления количества информации Шеннон предложил использовать заимствованную из статистической термодинамики вероятную функцию энтропии.
Л. Бриллюэн показал, что между вычисленным согласно Шеннону количеством информации и физической энтропии существует не формальная, а содержательная связь.
В статистической физике
с помощью вероятностной
Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст.
Еще один важный вывод заключается в том, что
с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.
Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и др.
Одновременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия относящихся к различным уровням сложности информационных систем.
Так, например, все физические объекты, в отличие от биологических, не обладают специальными органами памяти, перекодировки поступающих из внешнего мира сигналов, информационными каналами связи. Хранимая в них информация как бы «размазана» по всей их структуре. Вместе с тем, если бы кристаллы не способны были сохранять информацию в определяющих их упорядоченность внутренних связях, не было бы возможности создавать искусственную память и предназначенные для обработки информации технические устройства на основе кристаллических структур.
Необходимо учитывать, что создание подобных устройств стало возможным лишь благодаря разуму человека, сумевшего использовать элементарные информационные свойства кристаллов для построения сложных информационных систем.
Простейшая биологическая система превосходит по своей сложности самую совершенную из созданных человеком информационных систем. Уже на уровне простейших одноклеточных организмов задействован необходимый для их размножения сложнейший информационный генетический механизм. В многоклеточных организмах помимо информационной системы наследственности действуют специализированные органы хранения информации и ее обработки (например, системы, осуществляющие перекодирование поступающих из внешнего мира зрительных и слуховых сигналов перед отправкой их в головной мозг, системы обработки этих сигналов в головном мозге). Сложнейшая сеть информационных коммуникаций (нервная система) пронизывает и превращает в целое весь многоклеточный организм.
Уже на уровне биологических систем возникают проблемы учета ценности и смысла используемой этими системами информации. Еще в большей мере такой учет необходим для анализа функционирования интеллектуальных информационных систем.
Глубокое осознание
специфики биологических и
Определить эти границы Шеннону пришлось на самом начальном этапе создания теории информации, поскольку без этого нельзя было использовать количественную меру информации для оценки письменных текстов и других созданных разумом человека информационных систем. Именно с этой целью Шеннон делает оговорку о том, что предложенный им метод вычисления информации письменных текстов игнорирует такие же их неотъемлемые свойства, как смысл и ценность содержащихся в них сообщений.