Автоматические системы управления и связь

Автор работы: Пользователь скрыл имя, 24 Марта 2013 в 19:18, курс лекций

Краткое описание

Получение информации связано с изменением степени неосведомлённости получателя информации о состоянии системы. До получения информации он мог иметь некоторые предварительные сведения о системе α. Энтропия системы H(α) является для него мерой неопределённости состояния системы. После получения некоторого сообщения β получатель приобрёл дополнительную информацию Iβ(α), уменьшившую его априорную неосведомлённость. Энтропия системы после получения сообщения стала H(α/β).

Прикрепленные файлы: 1 файл

Примерный курс лекций.docx

— 3.27 Мб (Скачать документ)

Примерный курс лекций

по  дисциплине

«Автоматизированные системы управления и связь».

 

1. ИНФОРМАЦИОННЫЕ ОСНОВЫ КУРСА

 

 

 1.1. Особенности информации

 

1.1.1. Меры информации

 

Получение информации связано с  изменением степени неосведомлённости  получателя информации о состоянии  системы. До получения информации он мог иметь некоторые предварительные  сведения о системе α. Энтропия системы  H(α) является для него мерой неопределённости состояния системы. После получения некоторого сообщения β получатель приобрёл дополнительную информацию Iβ(α), уменьшившую его априорную неосведомлённость. Энтропия системы после получения сообщения стала H(α/β).  
Тогда количество информации Iβ(α) о системе α, полученной в сообщении β, будет определятся как [1]

 

 

                             Iβ(α) = H(α) – H(α/β).                                       (1.1)

 

Таким образом, количество информации измеряется уменьшением  неопределённости состояния системы, а энтропия системы H(α), имеющей N возможных состояний, определяется по формуле Шеннона [1]

                        

 H(α) = – Pi log Pi ,                                        (1.2)


 

где Pi – вероятность того, что система находится в i-м состоянии.

Из формулы (1.1) следует, что H(α) = 0 тогда и только тогда, когда одна из вероятностей равна единице, а остальные вероятности равны нулю. Это состояние определённости, или уверенности.

Когда все  вероятности равны между собой  (Pi   = 1/N ),

 

 

                            H(α) = log N.                                                (1.3)

 

При N = 2 log2 2 = 1, следовательно, H(α) = 1. Таким образом, за единицу количества информации (бит) принято утверждение, что произошло одно из двух равновероятных событий.

На синтаксическом уровне рассматривается доставка получателю сообщений как совокупности знаков, при этом учитываются тип носителя, способ представления информации, скорость передачи и обработки, размеры кодов, надёжность и точность их преобразования и т. п. На этом уровне полностью абстрагируются от смыслового содержания сообщений и их целевого предназначения. Информацию на синтаксическом уровне, как правило, называют данными, поскольку смысловая сторона здесь не имеет значения.

Такой подход даёт возможность оценки информационных потоков в разных по своей природе  объектах, таких как системы связи, ЭВМ, автоматизированные системы управления, нервная система.

Для измерения смыслового содержания информации, т. е. её количества, на семантическом  уровне используют тезаурусную меру информации, которая связывает семантические  свойства информации со способностью пользователя воспринимать поступившее  сообщение. Тезаурус пользователя –  это совокупность сведений, которыми располагает данная система или  пользователь.

В зависимости  от соотношений между смысловым  содержанием информации S* и тезаурусом пользователя Sп изменяется количество семантической информации Iс:

– при Sп ≈ 0 пользователь не воспринимает, не понимает поступающую информацию;

– при Sп → ∞ пользователь всё знает, и поступающая информация ему не нужна.

И в том  и другом случае Iс ≈ 0. Максимальное значение семантическая информация Iс приобретает при согласовании смыслового содержания информации S* с тезаурусом пользователя Sп, когда поступающая информация понятна пользователю и несёт ему отсутствующие в его тезаурусе сведения.

Следовательно, количество семантической информации в сообщении есть величина относительная. Одно и то же сообщение может иметь  смысловое содержание для компетентного  пользователя и быть семантическим  шумом для некомпетентного пользователя. Необходимо отметить, что известная  компетентному пользователю информация также является для него семантическим  шумом.

Относительной мерой количества семантической  информации может служить коэффициент  содержательности С, который определяется как отношение количества семантической  информации к её объёму Vд:

 

 

                                           С = Iс / Vд.                                                 (1.4)

 

Прагматическая  мера информации определяет полезность информации для достижения пользователем  поставленной цели. Эта мера также  является величиной относительной, обусловленной особенностями использования  информации в той или иной системе. Таким образом, информация прагматического  уровня представляет количество информации, необходимой для достижения намеченной цели, т. е. устанавливается вероятность  достижения цели. Так, если до получения  информации вероятность достижения цели равнялась P0, а после её получения – P1, то ценность информации вычисляется как логарифм отношения P1/P0:

 

 

                              I = log2 P1 – log2 P0 = log2 (P1 / P0).                                (1.5)

 

Выражение (1.5) рассматривается как результат  нормировки числа исходов. На рис. 1.1 приведены три схемы, на которых  приняты одинаковые значения числа  исходов 2 и 6 для точек 0 и 1 соответственно. Исходное положение – точка 0. На основании полученной информации  осуществляется переход в точку 1. Цель обозначается крестиком. Благоприятные исходы изображены линиями, ведущими к цели.

 


           
 
 

 
       
   
 

 
 
 

 
       


 


 

 

 

 

Рис. 1.1. Расчёт ценности информации: а – 3 благоприятных исхода; б – 4 благоприятных исхода; в – 1 благоприятный исход

 

Определим ценность полученной информации:

а) число  благоприятных исходов – три: P0 = 1/2, P1 = 3/6.

 

I = log2 (P1 / P0) = log2 1 = 0;

 

б) один благоприятный  исход: P0 = 1/2, P1 = 1/6.

 

I = log2 (P1 / P0) = –log2 3 = –1,58;

 

в) четыре благоприятных  исхода: P0 = 1/2, P1 = 4/6.

 

I = log2 (P1 / P0) = log2 4/3 = 0,42.

 

Во втором случае (рис. 1.1, б) получена отрицательная информация, которая увеличила исходную неопределённость. Информация, которая уменьшает вероятность достижения цели, называют дезинформацией. То есть в данном случае получена информация 1,58 двоичных единиц.

 

 

 

1.1.2. Информационные характеристики каналов связи

 

В системах управления информация передаётся по каналам связи. Совокупность средств, служащих для передачи информации, называется системой передачи информации (СП). На рис. 1.2 представлена обобщённая блок-схема системы передачи информации [1]. Источник и потребитель информации непосредственно в СП не входят, поскольку являются абонентами системы  передачи. Абонентами могут быть компьютеры, системы хранения информации, телефонные аппараты, исполнительные устройства и люди.  
В структуре СП выделяют:

– канал  передачи (канал связи);

– передатчик информации;

– приёмник информации.

 

 

Рис. 1.2. Блок-схема  системы передачи информации

 

Передатчик  служит для преобразования поступающего от абонента сообщения в сигнал, передаваемый по каналу связи, а приёмник – для обратного преобразования сигнала в сообщение, поступающее  абоненту.

Основными качественными показателями системы передачи информации являются:

– пропускная способность;

– достоверность;

– надёжность работы.

Пропускная способность канала передачи информации – это наибольшее теоретически достижимое количество информации, которое может быть передано по каналу за единицу времени. Пропускная способность  определяется физическими свойствами канала и сигнала. От пропускной способности  канала зависит максимально возможная  скорость передачи данных по этому  каналу.

Для характеристики канала и сигнала используют следующие  параметры:

• Fк – полосу пропускания канала, или полосу частот, которую канал может пропустить при нормированном затухании сигнала;

• Hк – динамический диапазон, равный отношению максимально допустимого уровня сигнала в канале к уровню помех, нормированных для этого типов каналов;

• Тк – время, в течение которого канал используется для передачи данных;

• Fc – ширину спектра  частот сигнала, т. е. интервал по шкале частотного спектра, занимаемый сигналом;

• Hc – динамический диапазон, равный отношению средней мощности сигнала к средней мощности помехи в канале;

• Тс – длительность сигнала, или время его существования.

Объём канала связи определяется по формуле [1]

 

 

                                     Vк = Fк ∙ Hк ∙ Тк.                                              (1.6)

 

Объём сигнала, передаваемый в канал  связи, определяется по формуле [1]

 

 

                                    Vc = Fc ∙ Hc ∙ Hc.                                             (1.7)

 

Для неискажённой передачи данного сигнала по данному  каналу связи необходимо выполнение достаточных условий «неискажённой  передачи»:

 

Fк ≥ Fc,   Hк ≥ Hc,   Тк ≥ Hc.

 

Максимально возможная скорость передачи данных определяется по формуле [1]

 

 

                                  С = F ∙ log2 (1 + Pc / Pш),                                       (1.8)

 

где С –  максимально возможная скорость передачи данных, бит/с; F – ширина полосы пропускания канала связи, Гц; Pc – мощность сигнала; Pш – мощность шума.

Из этого  соотношения следует, что увеличить  скорость передачи данных в канале связи можно, если увеличить мощность сигнала или уменьшить мощность помех.

1.2. Связь между абонентами

 

1.2.1. Структурная схема системы электросвязи

 

Известно, что  сообщение – это форма выражения (представления) информации, удобная  для передачи на расстояние. Любое  сообщение имеет переменный параметр, в который «заложена» информация, содержащаяся в нём. Этот параметр называют информационным. По характеру изменения  информационных параметров различают  непрерывные и дискретные сообщения. Если информационный параметр сообщения  в процессе изменения может принимать  любые значения из некоторого множества  возможных сообщений, то сообщение  называется непрерывным, или аналоговым. Любые текстовые и цифровые сообщения  составляются из определённого конечного  и известного набора знаков. Такие  сообщения называются дискретными.

Отображение передаваемого сообщения обеспечивается изменением какой-либо физической величины, характеризующей процесс передачи. Эту величину называют информационным параметром сигнала, а физический процесс, отображающий передаваемые сообщения, – сигналом.

Процесс передачи или приёма сигналов, знаков, изображений, звуков по проводной, радио-, оптической или другим электромагнитным системам называется электросвязью. Неоднородность передаваемых сообщений привела  к необходимости создания нескольких видов электросвязи. Классификация  видов электросвязи представлена на рис. 1.3 [2].

             


  

 Рис. 1.3. Классификация видов  электросвязи

 

В настоящее время наиболее широкое  распространение получили следующие  виды электросвязи: телефонная, телеграфная, фототелеграфная и факсимильная.

Телефонная  связь – вид электросвязи, предназначенный  для обмена информацией преимущественно  путём разговора с использованием телефонных аппаратов.

Телеграфная связь обеспечивает передачу дискретных сообщений в виде телеграмм.

Факсимильная  связь и её разновидность –  фототелеграфная связь обеспечивают передачу оптических сообщений в  виде неподвижных изображений (в  том числе и цветных).

Для реализации задач, стоящих перед связью, необходима определённая система. Применительно  к связи понятие «система»  рассматривается как совокупность сетей связи с единым управлением  и обеспечением.

Информация о работе Автоматические системы управления и связь