Автор работы: Пользователь скрыл имя, 16 Октября 2014 в 21:06, курсовая работа
Целью данной курсовой работы является разработка системы связи для передачи дискретных сообщений. Дискретные сигналы возникают в тех случаях, когда источник сообщений выдает информацию в фиксированные моменты времени. Такие сигналы приобрели особое значение в последние десятилетия под влиянием совершенствования техники связи и развития способов обработки информации быстродействующими вычислительными устройствами. Из-за наличия в канале связи помех, прием сообщений становится ненадежным, и мы можем получить неверную (ложную) информацию.
1. Введение………………………………………………………..……………….…3
2. Рабочее задание.................................................................................4
3. Обобщённая структурная схема системы связи.............................5
4. Описание принципов кодирования источника при передаче дискретных сообщений..............................................................................................6
5. Расчёт характеристик системы согласно заданию ......................10
6.Описание процесса принятия приёмником решения при приёме сигнала........... 13
7. Расчёт характеристик системы согласно заданию...................... 15
8. Расчёт согласованного фильтра ....................................................22
9. Расчёт характеристик системы согласно заданию ......................25
10. Структурная схема связи согласно пункту .................................31
11. Описание принципов помехоустойчивого кодирования при передаче дискретных сообщений. Построение (7,4) - кода Хемминга........32
12. Описание процессов декодирования последовательности, содержащей двукратную ошибку, согласно пункту .........................................37
Таблица 3. Кодовые комбинации по методу Шеннона-Фано.
Построенное дерево кодирования кода Шеннона-Фано на рис. 2.
4.3. Кодирование построенным кодом фамилии и имени исполнителя курсовой работы.
Закодируем фразу: Саханов Абылайхан. Отсутствующие в алфавите источника буквы пропускаются: С а а н о в А б а а н.
Получившийся код:
011 11100 1011 0100 1011 11110 11111 11110 100 0100
Первым двум буквам сообщения соответствует код: 01111100
Рис. 2. Дерево кодирования кода Шеннона-Фано.
Изобразим качественные временные диаграммы сигналов во всех промежуточных точках структурной схемы (рис.3). Возьмём фрагмент сигнала, отвечающего двум первым буквам сообщения «е» - 011 и «б» - 11100.
Рис. 3. а) Фрагмент сигнала на входе модулятора.
На вход модулятора поступает последовательность кодовых символов в виде прямоугольных радиоимпульсов. Наличие импульса – «1», его отсутствие – «0».
Рис. 3. б) Фрагмент сигнала на выходе модулятора
Последовательность импульсов непригодна для передачи по линии связи, поэтому она поступает на модулятор, где используется для модуляции другого колебания s(t) - переносчика. Вид модуляции – амплитудная телеграфия с пассивной паузой. Модулированное колебание U(t) поступает в линию связи.
Рис. 3. в) Фрагмент сигнала на входе демодулятора.
В линии связи сигнал взаимодействует с помехой, поэтому на вход демодулятора поступает их сумма. Также сигнал в линии связи подвергается искажениям, но мы этого не рассматриваем для простоты. Таким образом, на входе демодулятора присутствуют случайные колебания двух видов – реализация шума или сумма детерминированного сигнала и шума, что соответствует двум гипотезам.
Рис. 3. г) Фрагмент сигнала на выходе демодулятора.
Задача демодулятора – принять на основе наблюдения решение о том, какая именно гипотеза выполняется на данном интервале, и на основании этого сформировать последовательность двоичных символов, которая затем подвергается декодированию. Эта последовательность может отличаться от исходной bц(t). Для уменьшения вероятности ошибки мы и будем использовать кодирование.
5. Расчёт характеристик системы согласно заданию №2:
Расчет энтропии и избыточности источника:
Энтропия - среднее количество информации, приходящееся на один символ, которое определяется как математическое ожидание. Энтропия характеризует производительность дискретного источника. Рассматривая источник без памяти, запишем энтропию дискретного источника А в виде:
где K – количество символов в алфавите, p(αk) – вероятность k-того символа.
Основные свойства энтропии:
Значение энтропии равно . В частности, при энтропия максимальна при и равна 1 биту. Таким образом, 1 бит – это количество информации, доставляемое одним из двух равновероятных символов, вырабатываемых источником без памяти.
Реальные источники редко обладают максимальной энтропией, поэтому их принято характеризовать так называемой избыточностью, определяемой выражением:
Рассчитаем энтропию источника:
В нашем случае =
= 3.707 (бит)
Следовательно, энтропия источника: бит.
Максимальная энтропия для данного источника:
Найдём избыточность источника:
Средняя длина кодовой комбинации:
Для построенного кода средняя длина кодовой комбинации:
Теорема Шеннона о кодировании в отсутствие шумов. Среднюю длину кодовых слов для передачи символов источника при помощи кода с основанием можно как угодно приблизить к величине .
Смысл теоремы состоит в том, что она определяет нижнюю границу длины кодовых слов и устанавливает принципиальную возможность достичь этой границы, однако она не указывает способов достижения.
Согласно теореме Шеннона при оптимальном кодировании можно достичь средней длины:
μmin=H(A)/log22= H(A)=3.707 (символа)
То есть, μср≠μmin. Таким образом, построенный код не является оптимальным, потому что на каждом шаге процедуры построения кода не удавалось разделить символы на группы с равными вероятностями.
Расчет энтропии, избыточности кода, вероятности двоичных символов, передаваемых по каналу, скорость передачи информации:
Определим вероятность появления определенного символа в кодовой комбинации (пусть это будет символ 1). Она находится, как сумма количеств единиц во всех кодовых словах с весами, равными вероятностям кодовых слов, отнесенная к средней длине кодового слова:
В таком случае, вероятность появления символа 0: - априорная вероятность 0.
Определим энтропию кода :
Т.к. алфавит кода состоит из двух символов 0 и 1, поэтому энтропия кода равна:
Рассчитаем избыточность кода:
Только будем учитывать, что при передаче бинарного кода, его максимальная энтропия: Нк мах=1
Таким образом, получим:
Скорость передачи информации по каналу без помех:
Поскольку НК =0.999 (бит) и τ = 0.9 (мкс), получаем:
бит/сек.
или
бит/сек.
где τ – длительность посылки.
6.Описание процесса принятия приёмником решения при приёме сигнала.
Пусть при передаче дискретных сообщений используются реализации сигнала Si(t), соответствующие кодовым символам. В течение интервала времени от 0 до Т на вход приемного устройства поступает некоторое колебание, которое вследствие искажений и помех (x(t)) в канале не совпадает в точности ни с одним из передаваемых сигналов. Следовательно, в этом случае приемное устройство должно выбрать одну из n возможных взаимоисключающих гипотез. Решение о том, какой символ был передан на входе, принимается в демодуляторе. В случае, когда код бинарный демодулятор решает: был сигнал на входе или его не было («1» и «0» соответственно).
Для выполнения данной задачи устанавливается порог: если сигнал превышает установленный пороговый уровень, то передана «1» (сумма сигнала с шумом), если порогового уровня - «0» (только шум). Этот алгоритм легко реализуется в современной электронике с помощью микросхем - компараторов, сравнивающих два сигнала, один из которых поступает из линии, а другой является эталонным, он и играет роль порога.
В качестве помехи – стационарный квазибелый гауссовский шум с нулевым средним, известной дисперсией и спектральной плотностью мощности N0/2, постоянной в полосе частот, в которой сосредоточено 99% энергии сигнала, и равной 0 вне этой полосы.
Мы будем использовать способ приема, заключающийся во взятии однократного (мгновенного) значения наблюдаемого процесса z(t) в некоторый момент времени t0 и сравнивании его с порогом yп.
Точно зная сигнал, следует выбрать в качестве t0 такой момент, когда сигнал принимает максимальное значение. Но шум в это время может принять отрицательное значение, так что сумма сигнала с шумом может оказаться ниже порога (ошибка второго рода – пропуск сигнала). При отсутствии сигнала шумовая реализация может превысить порог (ошибка первого рода – ложная тревога).
Чтобы найти порог и вероятности ошибок первого и второго рода, необходимо рассмотреть условные плотности распределения вероятностей шума w(y|H0) и суммы сигнала и шума w(y|H1) в момент времени t0.
Критерий минимума суммарной условной вероятности ошибки.
Для получения минимума суммарной условной вероятности ошибки нужно выбрать порог, равный точке пересечения плотностей.
Тогда решение принимается в пользу той гипотезы, для которой значение условной плотности вероятности выше, то есть более правдоподобной гипотезы.
Отношение правдоподобия для критерия минимума суммарной условной вероятности ошибки:
Λ=
Для того, чтобы вероятность ошибки была как можно меньше, необходимо установить оптимальный порог.
При передаче дискретных сообщений в качестве критерия обычно принимают среднюю вероятность ошибки приёма одного элемента двоичной последовательности. Этот критерий называется критерием идеального наблюдателя (Котельникова), согласно которому порог выбирается так, чтобы обеспечить минимум средней вероятности ошибки:
рош = р0р01+р1р10,
где р0 – априорная вероятность гипотезы H0 (сигнала нет),
р1 – априорная вероятность гипотезы H1 (сигнал есть).
Отношение правдоподобия для критерия идеального наблюдателя:
Λ=
Априорные вероятности гипотез – это вероятности присутствия в кодовой последовательности нулей и единиц соответственно.
7. Расчёт характеристик системы согласно заданию №3.
7.1. Когерентный прием.
Когерентный прием – прием сигнала при условии, что форма сигнала на интервале наблюдения точно известна, неизвестен лишь сам факт наличия или отсутствия сигнала в наблюдаемом колебании. (Эта ситуация наиболее близка к реальности в кабельных линиях связи, где условия распространения сигналов известны и практически неизменны.)
Если в линии только шум с нулевым средним (гипотеза Н0), то на выходе канала связи есть сигнал с Гауссовой плотностью распределения:
Если в линии сумма сигнала и шума (гипотеза Н1), то на выходе канала связи есть сигнал с Гауссовой плотностью распределения:
Вычислим плотности распределения вероятностей мгновенных значений колебания на входе демодулятора при приеме посылки и паузы:
Рис.5. Плотности распределения вероятностей при когерентном приёме: сплошная линия – смесь сигнала и шума, пунктир – шум.
7.1.1. Выбор оптимального по критерию идеального наблюдателя порога для принятия решения о принимаемом символе.
Для определения оптимального по критерию идеального наблюдателя порога высчитаем условные плотности распределения вероятностей, умноженные на априорные вероятности гипотез H0 и H1.
p0=0,494
p1=0,506
Вычислим плотности распределения вероятностей при когерентном приёме на входе демодулятора в отсутствии сигнала и при наличии сигнала, результат представим в виде графика:
Рис.5. Выбор порогового значения yП при когерентном приёме.
Оптимальный порог по критерию идеального наблюдателя для принятия решения о принимаемом символе найдём как абсциссу пересечения условных плотностей распределения вероятностей, умноженных на априорные вероятности гипотез.
С помощью Mathcad найдём yП:
Т.е. yП = 1.4 В
7.1.2. Определение условных вероятностей ошибок первого и второго рода и средней вероятности ошибки.
Вероятности ошибок первого и второго рода определяются как площади фигур, ограниченных осью у, вертикальной прямой, проходящей через точку ylim на оси абсцисс и графиком плотности W0p(y) и W1p(y) соответственно.
Условная вероятность ошибки первого рода - ложной тревоги (передавалась единица, а принят – ноль):
Условная вероятность ошибки второго рода - пропуск сигнала (передался ноль, а принята единица):
Рис. 6. Определение условных вероятностей ошибок первого и второго рода при когерентном приеме.
Таким образом, средняя вероятность ошибки:
где p01 – вероятность «1» при передачи «0»; p10 – вероятность «0» при передачи «1»
Информация о работе Разработка системы связи для передачи дискретных сообщений