Основы теории информации и передачи сигналов

Каналы передачи информации

3. Каналы передачи информации
3.1. Виды каналов передачи информации
3.2. Информационные характеристики дискретных сигналов
3.3. Критерии верности передачи дискретных сообщений
3.4. Когерентный и некогерентный прием дискретных сигналов
3.5 Волоконно-оптические каналы передачи информации
Каналы передачи информации предназначены для передачи сообщений от источника к потребителю. При заданных характеристиках линий связи основными задачами являются анализ и синтез операторов преобразования сигналов на передающей и приемной стороне, которые определяются видом канала передачи информации. 3.1. Виды каналов передачи информации По назначению каналы передачи информации подразделяются на телефонные, телеметрические, передачи цифровых данных и др. В зависимости от характера линий связи различают каналы радиосвязи и каналы проводной связи: кабельные, волноводные,волоконно-оптические и др. Наилучшими характеристиками обладают кабельные линии связи, работающие в диапазоне частот от сотен килогерц до десятков мегагерц. Каналы радиосвязи различных частотных диапазонов во многих случаях позволяют организовать дальнюю связь без промежуточных станций и поэтому являются более экономичными по сравнению с кабельными. Наибольшее распространение в многоканальной телефонной и телевизионной связи получили наземные радиорелейные линии связи, работающие в диапазоне частот от десятков мегагерц до десятков гигагерц. Спутниковые линии связи по принципу работы представляют собой разновидность радиорелейных линий с ретрансляторами, установленными на искусственных спутниках Земли, что обеспечивает дальность связи около 10000 км для каждого спутника. Диапазон частот спутниковой связи в настоящее время расширен до 250 ГГц, что обеспечивает повышение качественных показателей систем связи. Переход на более высокочастотные диапазоны позволяет получить остронаправленное излучение при малых размерах антенн, уменьшить влияние атмосферных и промышленных помех, организовать большое число широкополосных каналов связи. По характеру сигналов на входе и выходе каналов различают дискретные, непрерывные и дискретно-непрерывные каналы. 3.2.
Информационные характеристики дискретных каналов
Идеальные дискретные каналы
Реальные дискретные каналы
Избыточность кодов и длина кодовых комбинаций в реальных каналах
Пропускная способность реальных каналов
Пропускная способность канала C определяется как Каналы передачи информации, (1) где V – скорость передачи электрических кодовых сигналов, H – энтропия сообщения. Коэффициент использования канала Каналы передачи информации (2) так какКаналы передачи информации Идеальные дискретные каналы Кодер обеспечивает преобразование предаваемых символов в электрические кодовые сигналы. В идеальном канале между элементами кодовых сигналов на входе и выходе существуют однозначное соответствие (ошибки в канале отсутствуют). Скорость передачи информации равна производительности кодера Каналы передачи информации, (3) где Каналы передачи информации – скорость передачи элементарных кодовых сигналов [сигн./с], Каналы передачи информации – энтропия кодера [бит/сигн.], L – длительность элементарного кодового сигнала. Пропускная способность идеального канала Каналы передачи информации, (4) где Каналы передачи информации – основание кода. Пропускная способность является предельной характеристикой канала. Если основание кода равно Каналы передачи информации и для передачи одного элементарного кодового сигнала необходимо время L, то для передачи кодовой комбинации длиной n сигналов потребуется время T = nL. Общее число кодовых комбинаций длительностью T равно Каналы передачи информации Следовательно, максимальное количество информации в одной кодовой комбинации Каналы передачи информации Пропускная способность равна Каналы передачи информации (5) Таким образом, пропускную способность идеального дискретного канала полностью определяет скорость передачи сигналов и основание кода. Теорема Шеннона для идеального дискретного канала (без доказательства): если ошибки в дискретном канале отсутствуют, можно закодировать сообщение на выходе источника так, чтобы передавать информацию со средней скоростью V, сколь угодно близкой к C. Передавать информацию с V > C невозможно. Эта теорема служит теоретической основой для построения оптимальных эффективных кодов. Если в процессе кодирования на выходе кодера обеспечить появление равновероятных независимых кодовых сигналов, то каждый элементарный сигнал будет нести максимальное количество информации, производительность кодера будет максимальной и скорость передачи информации приблизится к пропускной способности канала. Реальные дискретные каналы В реальных каналах всегда имеются ошибки при передаче сообщений.


Ошибки приводят к уменьшению пропускной способности канала и потере информации. Вероятности появления ошибок во многом определяются искажениями сигналов и влиянием помех. Количество информации, которое содержит принятый символ относительно переданного или в более общем случае один символ относительно другого находят с помощью формулы для вероятности совместного появления символов Каналы передачи информации (6) где Каналы передачи информации и Каналы передачи информации – вероятности появления символов Каналы передачи информации и Каналы передачи информации, Каналы передачи информации– условная вероятность. Обозначим принятый кодовый символ Каналы передачи информации, а переданный Каналы передачи информации. Количество информации, которое содержит принятый символ Каналы передачи информации относительно переданного Каналы передачи информации определяется как Каналы передачи информации (7) где Каналы передачи информации – вероятность совместного появления символов Каналы передачи информации; Каналы передачи информации, Каналы передачи информации – вероятности появления Каналы передачи информации; Каналы передачи информации, Каналы передачи информации – соответствующие условные вероятности. Если символы появляются независимо, то Каналы передачи информации. Во всех остальных случаях один символ несет информацию о другом и Каналы передачи информации. Среднее количество принятой информации, которое приносит один символ, получим, усредняя (7) по всем i и k, а именно Каналы передачи информации (8) Учитывая две формы записи дроби (7), получим две формы записи для количества информации Каналы передачи информации (9) Каналы передачи информации (10) Выражения (9) и (10) можно записать более наглядно: Каналы передачи информации (11) Каналы передачи информации (12) Смысл выражений (11), (12) следующий. Величина Каналы передачи информации – это энтропия кодера, а величина Каналы передачи информации – это среднее количество информации, потерянное в канале из-за ошибок. Следовательно, соотношение (11) показывает, что среднее количество принятой в одном символе информации можно вычислить как разность энтропий принятого сигнала и помехи. Соотношение (12) используют чаще, так как оно позволяет определить Каналы передачи информации через энтропию помехи, которую определить проще. Скорость передачи информации в реальных каналах равна Каналы передачи информацииИспользуя две последние формулы, получим Каналы передачи информации (13) Если ошибок нет, то Каналы передачи информации и формула (13) переходит в формулу для идеального канала, когда Каналы передачи информации Пропускная способность реальных дискретных каналов равна Каналы передачи информации (14) где операция отыскания максимума выполняется по всем способам передачи и обработки сигналов. Теорема Шеннона для реальных дискретных каналов (без доказательства): если производительность источника сообщений меньше пропускной способности канала, сообщение можно закодировать в сигналы так, чтобы передавать информацию по дискретному каналу с помехами со сколь угодно малой вероятностью ошибки. Эта теорема является теоретической основой корректирующего кодирования.


В ней утверждается, что существует такой код, использование которого позволит обнаружить и исправить практически все ошибки. Задача заключается в отыскании и построении таких кодов. Избыточность кодов и длина кодовых комбинаций в реальных каналах Установим взаимосвязь, которая должна существовать в реальных каналах для обеспечения сколь угодно высокой верности передачи, между средней длиной Каналы передачи информации кодовой комбинации, избыточностью кода Каналы передачи информации и количеством Каналы передачи информации информации, теряемой из-за помех. Чтобы кодер успевал преобразовать каждый символ сообщения в кодовую комбинацию со средней длиной Каналы передачи информации элементарных кодовых сигналов скорость Каналы передачи информациипередачи сигналов кодером должна быть в Каналы передачи информации раз выше скорости Каналы передачи информации передачи символов источником. Поэтому для безошибочного кодирования должно выполняться условие Каналы передачи информации (15) Кроме этого условия должно выполняться условие отсутствия потерь информации при кодировании: Каналы передачи информации (16) Это условие определяет, что среднее количество информацииКаналы передачи информации, которое заключено в одном символе сообщения, должны переносить Каналы передачи информации символов кодовой комбинации. С Учетом (16) избыточность кода для реальных каналов определяется выражением Каналы передачи информации (17) Условие теоремы Шеннона для реальных каналов с учетом (14) можно представить в виде неравенства Каналы передачи информации или иначе Каналы передачи информации (18) Из (15) и неравенства (18) получим Каналы передачи информации (19) Из неравенства (19) следует практически важный вывод: с ростом среднего количества информации Каналы передачи информации теряемой в канале из-за помех, для обеспечения сколь угодно высокой верности передачи информации должна возрастать средняя длина кодовой комбинации. Аналогичный вывод справедлив и относительно избыточности кода (17). Если Каналы передачи информации растет, дробь в правой части (17) уменьшается, а значение Каналы передачи информации увеличивается. Можно установить непосредственную связь между Каналы передачи информации и Каналы передачи информации Так как Каналы передачи информации, то неравенство (18) можно представить в виде Каналы передачи информации. (20) Разделив обе части неравенства (20) на Каналы передачи информации, получим Каналы передачи информации (21) С учетом (15), поменяв местами дроби в неравенстве, получим Каналы передачи информации Левая часть неравенства представляет коэффициент избыточности кода (17).


Следовательно, для обеспечения сколь угодно высокой вероятности передачи информации в реальных каналах должно выполняться неравенство Каналы передачи информации (22) Таким образом, для обеспечения сколь угодно высокой верности передачи информации в реальных каналах с ростом потерь информации Каналы передачи информации из-за помех должны возрастать средняя длина кодовой комбинации и избыточность кода. Пропускная способность реальных каналов Определим с помощью соотношения (14) пропускную способность реального двоичного симметричного канала без памяти. Предположим, что известна вероятность Каналы передачи информации появления ошибки в канале. Определим значение Каналы передачи информации. Для двоичного канала Каналы передачи информации Условная энтропия Каналы передачи информации – это энтропия помехи, которая определяется по формуле условной энтропии двоичного источника с коррелированным неравновероятными символами: Каналы передачи информации (23) Подставив значения условных вероятностей появления ошибок, получим Каналы передачи информации Так как по условию нормировки сумма вероятностей в первом сомножителе равна единице, то Каналы передачи информации (24) Пропускная способность двоичного реального канала Каналы передачи информации (25) Анализ зависимости Каналы передачи информации показывает, что в диапазоне изменений Каналы передачи информации функция Каналы передачи информации является монотонно убывающей. При Каналы передачи информации, это означает, что из-за высокого уровня помех в канале кодовые сигналы на входе и на выходе канала становятся независимыми (принимаемые сигналы не несут информации о передаваемых). Пропускную способность m-ичного реального канала определяют аналогично Каналы передачи информации (26) Из (26) как частный случай следует (25) при Каналы передачи информации Если Каналы передачи информации, то пропускная способность реального канала стремится к пропускной способности идеального канала (4). Средняя длина кодовых комбинаций в двоичном и m-ичном реальных каналах определяется неравенством (19): Каналы передачи информации (27) Следовательно, минимальная средняя длина кодовых комбинаций в реальных каналах определяется энтропией источника, основанием кода и вероятностью появления ошибки в канале при передаче одного кодового сигнала. Избыточность двоичного кода (см. (22)): Каналы передачи информации, (28) избыточность многопозиционного кода Каналы передачи информации 3.3. Критерии верности передачи дискретных сообщений
Критерий среднего риска
Критерий идеального наблюдателя
Критерий минимума суммы условных вероятностей ошибок
Критерий Неймана-Пирсона
Критерий максимального правдоподобия
Информационный критерий
При известных характеристиках линий передачи информации важное значение имеют методы оптимального приёма сообщений, которые во многом определяют достоверность и скорость получения информации. Принято различать три задачи:
  • Обнаружение сообщения, когда требуется установить, имеется ли на входе информационный сигнал и помеха или только помеха.


    Обнаружение сообщений осуществляется в асинхронных системах связи с пассивной паузой.
  • Различение сообщений, когда требуется определить, какое сообщение из возможных (известных) сообщений передано. Различение сообщений является важной операцией в синхронных системах связи с активной паузой.
  • Восстановление сообщений, заключающееся в том, чтобы на основе принятого искаженного сообщения получить истинное по заданному критерию.
  • Поскольку сообщения передаются при помощи сигналов, решение перечисленных задач зависит от:
  • избыточности сообщений,
  • способа кодирования,
  • свойств сигнала-переносчика,
  • вида модуляции,
  • характеристик помех в канале,
  • способа демодуляции.
  • Общий анализ всех аспектов проблемы помехоустойчивости весьма сложен, поэтому её решение разбивают на отдельные этапы. Для этого используют априорную информацию и считают известными вид сигнала и характеристики помех в канале. Тогда задача анализа помехоустойчивости передачи сообщений определяется прежде всего помехоустойчивостьюприёма сигналов. В любом случае оценка помехоустойчивости передачи сообщений основывается на выбранном (заданном) критерии, т.е. некоторой количественной мере, характеризующей качество приёма информации. Рассмотрим основные критерии верности передачи сообщений. Критерий среднего риска Обратимся к задаче различения сигналов. Пусть при передачи используются m сигналов Каналы передачи информации Принятый сигнал представляет собой сумму переданного полезного сигнала и помехи, т.е. Каналы передачи информации Обозначим Каналы передачи информации многомерную плотность вероятности приёма случайной реализации x при условии, что был передан сигнал Каналы передачи информации Требуется определить, какой именно (из m) сигнал был принят. При различении сигналов используются методы статистических решений. Многомерное пространство сигналов X разбивают на m подпространств Каналы передачи информации. Тогда еслиКаналы передачи информации, то принимают решение, что был принят сигнал Каналы передачи информации. Если на самом деле был передан другой сигнал Каналы передачи информации, а сигнал x(x) попал в Каналы передачи информации под действием помехи, то имеет место ошибка в передаче сообщения. Запишем выражения для условных вероятностей правильного приема сигнала и вероятности ошибки: Каналы передачи информации (29) Каналы передачи информации (30) где x – вектор, включающий все возможные реализацииКаналы передачи информации, и интегралы являются многомерными. Потери, которые возникают при ошибочном решении, что был принят сигнал Каналы передачи информации, когда на самом деле передавался Каналы передачи информации обозначим Каналы передачи информации.


    Естественно принять Каналы передачи информации. Условный риск при передаче Каналы передачи информации есть Каналы передачи информации (31) т.е. определяется суммой вероятностей ошибок с учётом потерь Каналы передачи информации. Если Каналы передачи информации – априорная вероятность передачи сигналов Каналы передачи информации или средняя частота, с которой сигналы Каналы передачи информации передаются в канал, тогда средний риск при передаче одного сигнала из m возможных равен Каналы передачи информации (32) где Каналы передачи информации – безусловная вероятность. Качество канала передачи сообщений тем выше, чем меньше средний риск R в (32). Критерий среднего риска является одним из наиболее общих. Это Байесовский критерий, поскольку он основан на априорно известных вероятности Каналы передачи информации передачи отдельных сигналов и условной вероятности Каналы передачи информации на приемной стороне, что позволяет воспользоваться формулой Байеса в (32). Оптимизация процесса передачи осуществляется за счёт выбора соответствующих сигналов и границ областей принятия решений, таких, чтобы выполнить условие Каналы передачи информации При длительной эксплуатации канал, построенный согласно критерию минимума среднего риска будет наиболее “экономичным” из всех возможных, т.к. сумма штрафов за ошибки в нём минимальна. Недостатками критерия являются требование исчерпывающего знания вероятностей сообщений и сложность установления (обоснования) потерь Каналы передачи информации. Критерий идеального наблюдателя Пусть объективные данные для установления потерь Каналы передачи информации отсутствуют. Тогда разумно стремиться к тому, чтобы различитель сигналов Каналы передачи информации ошибался как можно реже, т.е. чтобы полная вероятность появления ошибки Каналы передачи информации (33) Критерий идеального наблюдателя является частным случаем критерия среднего риска, когда Каналы передачи информации при Каналы передачи информации. При этом не учитывается различие в последствиях отдельных ошибок и средний риск Каналы передачи информации. Минимизация среднего риска равносильна минимизации Каналы передачи информации. Вероятность правильного приема сообщения Каналы передачи информации Максимум достигается тогда, когда решение о том, что принятый сигнал относится к области Каналы передачи информации, принимается при выполнении условия Каналы передачи информации (34) где x , как и ранее, m – мерный вектор. Анализ m-1 условий (34) показывает, что они равносильны алгоритму Каналы передачи информации (35) заключающемуся в том, что регистрируется тот сигнал Каналы передачи информации, для которого априорная вероятность максимальна. Критерий минимума суммы условных вероятностей ошибок В ряде случаев затруднение вызывает не только установление потерь Каналы передачи информации, но и априорных вероятностей передачи сигналов Каналы передачи информации, когда характер потока сообщений заранее не известен.


    При этом определить полную вероятность ошибки нельзя, но можно установить равенство вероятностей передачи сигналов Каналы передачи информации После подстановки в формулу для среднего риска (31) с учётом соотношения Каналы передачи информации (36) имеем Каналы передачи информации, (37) поэтому условие Каналы передачи информации идентично условию Каналы передачи информации. В частном случае различения двух сигналов (m = 2) и Каналы передачи информации задача сводится к обнаружению сигнала Каналы передачи информации на фоне шума. Обозначим условные вероятности следующим образом: Каналы передачи информации – ошибка первого рода (ложное сообщение), Каналы передачи информации – ошибка второго рода (пропуск сообщения). Средний риск при обнаружении сообщения Каналы передачи информации будет равен Каналы передачи информации Критерий Неймана-Пирсона В ряде случаев стремятся уменьшить вероятность пропуска информационного сигнала, что обеспечивается при условии Каналы передачи информации, реализуемом на практике на основе сравнения с пороговым (допустимым) уровнем вероятности пропуска сообщения, т.е. Каналы передачи информации. Чтобы учесть также последствия ложного приёма сообщения, определяемого вероятностью Каналы передачи информации, вводится целевая функция вида Каналы передачи информации, где m – коэффициент, оптимизация которой позволяет построить системы по критерию Неймана-Пирсона. В случае различения двух сигналов Каналы передачи информации при равенстве слагаемых целевой функции запишем Каналы передачи информации (38) при этом условие среднего риска сводится к соотношению Каналы передачи информации (39) где вероятности пропуска сообщения и ложного сообщения определяются в форме Каналы передачи информации (40) Каналы передачи информации (41) Следовательно, критерий Неймана-Пирсона можно интерпретировать как частный случай Байесовского критерия. Для случая различения сигналов Каналы передачи информации используем соотношение Каналы передачи информации (42) где Каналы передачи информации – апостериорная вероятность того, что передавался сигнал Каналы передачи информации при условии принятого сигнала x, p(x ) – безусловная плотность вероятности сигнала x . Согласно формуле Байеса, Каналы передачи информации (43) Условие максимума апостериорной вероятности есть Каналы передачи информации В случае обнаружения сигнала Каналы передачи информации должно выполняться условие Каналы передачи информации (44) или Каналы передачи информации (45) Каналы передачи информации (46) Левая часть неравенства (46) носит название отношения правдоподобия. Правая часть в случае неизвестных вероятностей отсутствия и наличия сигнала также неизвестна, поэтому принимают, что отношение правдоподобия должно быть выше заданного порогового значения P .


    Таким образом, пространство X реализаций x преобразуется в значения P на числовой оси, так что условные вероятности принять сигнал при условии его наличия или отсутствия выражаются в форме Каналы передачи информации (47) Каналы передачи информации (48) Поэтому при установленной границе Каналы передачи информации принятия решений Каналы передачи информации (49) Каналы передачи информации (50) Структура оптимального приемника Неймана-Пирсона строится так, чтобы выполнялось условие Каналы передачи информации. Критерий максимального правдоподобия Плотность вероятности Каналы передачи информации получения реализации при условии переданного сигнала Каналы передачи информации называется функцией правдоподобия. Наиболее правдоподобной гипотезой является та, для которой выполняется условие Каналы передачи информации Таким образом, имеет место частный случай критерия идеального наблюдателя при Каналы передачи информации и достигается минимум суммы условных вероятностей ошибок. Информационный критерий Качество приёма сообщений можно определить сравнением количества принятой Каналы передачи информации и переданной Каналы передачи информации информации в форме Каналы передачи информации (51) Можно показать, что критерий (51) во многих случаях эквивалентен критерию идеального наблюдателя и критерию максимума апостериорной вероятности. 3.4. Когерентный и некогерентный прием дискретных сигналов
    Вероятность ошибок при когерентном приеме
    Различение m-ичных сигналов
    Некогерентный прием
    Когерентный прием сигналов осуществляется при следующих условиях:
  • передаваемые сигналыКаналы передачи информации полностью известны,
  • канал связи имеет известные параметры,
  • помеха Каналы передачи информацииносит аддитивный характер, имеет гауссовскую плотность вероятности и известную спектральную плотность Каналы передачи информации,
  • синхронизация сигналов является идеальной.
  • Представим реальный сигнал моделью Каналы передачи информации, (52) где Каналы передачи информации- m –мерный вектор, учитывающий все возможные передаваемые сигналы Каналы передачи информации(для конкретного сигнала Каналы передачи информации (m-1) компонентов вектора Каналы передачи информации являются нулевыми). Требуется обеспечить оптимальное различение сигналов Каналы передачи информации. Сигналы Каналы передачи информации являются детерминированными и известными, поэтому плотность вероятности принятого сигнала Каналы передачи информации, Каналы передачи информации, полностью определяется K-мерной плотностью вероятности значений помехи Каналы передачи информации, т.е. функция правдоподобия есть Каналы передачи информации. (53) В случае гауссовской помехи Каналы передачи информации, (54) где Каналы передачи информации, Каналы передачи информации- ширина полосы частот, Каналы передачи информации- отсчеты помехи.


    Энергия помехи на интервале L равна Каналы передачи информации (55) или Каналы передачи информации. (56) Поскольку Каналы передачи информации, то Каналы передачи информации. (57) Алгоритм оптимального когерентного приема по критерию максимального правдоподобия состоит в получении максимального по i значения в выражении (57). Это условие обеспечивается при Каналы передачи информации. Можно показать, что алгоритм обеспечивает в указанных условиях также минимум полной вероятности ошибки и соответствует критерию идеального наблюдателя. Для двоичных сигналов (импульсов) имеются два варианта Каналы передачи информацииили Каналы передачи информации. При этом для их различения проверяется условие Каналы передачи информации. (58) После раскрытия скобок получаем неравенство Каналы передачи информации, (59) где в левой части записана разность корреляционных интегралов, а в правой – разность энергии сигналов. Блок-схема различения двух сигналов показана на рис. 3.1. Каналы передачи информации

    Рис. 3.1 Структурная схема алгоритма различения двух сигналов Для различения сигналов Каналы передачи информацииодним из наиболее эфективных методов является использование согласованных фильтров. Известно, что такие фильтры обеспечивают наибольшее отношение сигнала к шуму на выходе фильтра. Согласованный фильтр дает сигнал на выходе Каналы передачи информации, (60) где импульсный отклик фильтраКаналы передачи информациипредставляет собой обращенную копию сигнала Каналы передачи информации. Поскольку принимаемые сигналы Каналы передачи информацииявляются реализациями стационарного случайного процесса, значение интеграла (60) не зависит от сдвига аргументов подынтегральных функций и равен корреляционному интегралу Каналы передачи информации. (61) Для вычисления разности корреляционных интегралов Каналы передачи информациив схеме рис. 3.1. можно задать импульсный отклик согласованного фильтра в форме Каналы передачи информации и использовать только один фильтр вместо двух умножителей. Запуск фильтра обеспечивается схемой синхронизации когерентного приемника в момент x=0 и снятия показаний в конце интервала L. Вероятность ошибок при когерентном приеме Если энергия разности двух различаемых сигналов Каналы передачи информации не превышает энергии помехи на выходе согласованного фильтра, т.е. Каналы передачи информации, (62) то имеет место ошибочный прием сигнала. Вероятность ошибок Каналы передачи информации, возникающая из-за влияния гауссовского шума, определяется интегрированием гауссовской плотности вероятности Каналы передачи информациишума вида (54) в форме Каналы передачи информации, (63) гдеКаналы передачи информации, величина Каналы передачи информациихарактеризует отношение сигнала к шуму.


    При заданном отношении Каналы передачи информации вероятность ошибочного приема можно найти из (63), используя табулированные значения функции Каналы передачи информации Различение m-ичных сигналов Условие различения сигналов выражается в виде Каналы передачи информации, (64) где Каналы передачи информации и представляют собой систему Каналы передачи информациинеравенств, которые анализируются совместно. Можно показать, что при аддитивной помехе и когерентном приеме с идеальной синхронизацией вероятность правильного приема равна Каналы передачи информации, (65) где Каналы передачи информации- вероятность единичной ошибки в канале,Каналы передачи информации- вероятность ошибки m-ичного приема. Поскольку Каналы передачи информации, по формуле бинома Ньютона запишем Каналы передачи информации. (66) Вероятность ошибки линейно возрастает с ростом m. Однако m-ичный символ несет в Каналы передачи информациираз большее количество информации. Сравнение m-ичного и двоичного каналов следует вести при одинаковой скорости передачи и равных энергиях. Можно показать, что m-ичные системы имеют более высокую степень помехоустойчивости, однако аппаратурно значительно более сложны. Достоинствами методов когерентного приема сигналов является независимость помехоустойчивости от полосы пропускания и отсутствие необходимости фильтрации спектра входных сигналов. Некогерентный прием При некогерентном приеме моменты появления известного по форме сигнала (его фазаКаналы передачи информации) рассматриваются как значение случайной переменной. При этом математическое ожидание функции правдоподобия можно выразить в форме Каналы передачи информации. (67) Согласно критерию максимального правдоподобия, требуется обеспечить выполнение условияКаналы передачи информации. (68) Можно показать, что оптимальный некогерентный приемник выделяет огибающую взаимной корреляционной функции Каналы передачи информации. (69) Здесь сигналы Каналы передачи информации и Каналы передачи информации представлены в форме комплексных аналитических сигналов Каналы передачи информации, (70) Каналы передачи информации, (71) где мнимые части связаны с действительными частями преобразованием Гильберта. Сигналы (70) и (71) можно представить в полярных координатах в виде Каналы передачи информации, (72) Каналы передачи информации, (73) причем фазы сигналов выражаются в форме Каналы передачи информации. (74) Выражение (69) справедливо в случае, когда модули функций (72) и (73) и фаза Каналы передачи информации в (74) изменяются медленно по сравнению с периодом несущейКаналы передачи информации.


    Пример действительной части аналитического сигнала, показан на рис.3.2. Каналы передачи информации Рис. 3.2 Пример изменения действительной части аналитического сигнала Комплексные амплитуды сигналов (72) и (73) определяются выражениями Каналы передачи информации, (75) Каналы передачи информации (76) и используются при оценке интеграла в (69). 3.5 Волоконно-оптические каналы передачи
    информации.
    Частотное разделение каналов
    Когерентный приём и демодуляция оптических сигналов
    Методика инженерного расчета волоконно-оптических систем
    Волоконно-оптические ретрансляторы
    Волоконно-оптические системы связи и передачи информации широко применяются в технике дальней связи, кабельном телевидении и компьютерных сетях. Волоконно-оптические каналы передачи информации содержат все элементы, характерные для систем связи, представленные схемой рис. 3.3, и являются примером реализации каналов связи и передачи информации на основе высоких технологий. Достоинствами оптических кабелей по сравнению с электрическими являются возможность передачи большого потока информации, малое ослабление сигнала и независимость его от частоты в широком диапазоне частот, высокая защищенность от внешних электоромагнитных помех, малые габаритные размеры и масса (масса оптических кабелей в 10 раз меньше электрических). Оптические кабели не требуют дорогостоящих материалов и изготавливаются, как правило, из стекла или полимеров. В оптических системах передачи информации применяются в основном те же принципы образования многоканальной связи, что и в обычных системах передачи по электрическим кабелям, а именно частотного и временного разделения каналов. В первом случае сигналы различаются по частоте и имеют аналоговую форму передаваемого сообщения. Во втором случае каналы мультиплексируются во времени, и импульсы имеют дискретный вид. Это соответствует цифровой передаче с импульсно-кодовой модуляцией (ИКМ). Во всех случаях оптической передачи информации электрический сигнал, формируемый частотным или временным методом, модулирует оптическую несущую и затем передается по оптическому кабелю. Каналы передачи информации Рис.3.3.


    Структурная схема волоконно-оптического канала передачи информации.
    Возможны два вида модуляции: внутренняя и внешняя. При внутренней модуляции электрический сигнал непосредственно воздействует на излучение источника (лазера), обеспечивая соответствующую интенсивность и форму сигнала. При внешней модуляции используется специальное модулирующее устройство, с помощью которого осуществляется воздействие передаваемого сигнала на уже сформированный световой луч. Для систем с полупроводниковыми лазерами применяется, как правило, внутренняя модуляция. В основном используется метод модуляции интенсивности оптической несущей, при котором от амплитуды электрического сигнала зависит мощность излучения, подаваемого в кабель, и закон изменения мощности оптического излучения повторяет закон изменения модулирующего сигнала. Частотная и фазовая модуляция не могут быть применены непосредственно, поскольку из-за шумового характера излучения полупроводниковых источников, работающих в оптическом диапазоне, сигнал не является строго синусоидальным. Тем не менее, эти виды модуляции в принципе могут быть реализованы путем изменения соответствующих параметров сигнала, модулирующего интенсивность излучения. Выбор метода модуляции интенсивности излучения для оптических систем обусловлен также простотой реализации передачи и приема сигнала. При передаче используется полупроводниковый лазер, который обеспечивает непосредственное преобразование электрического сигнала в оптический, сохраняя его форму. Для повышения эффективности ввода оптического сигнала в кабель (снижения потерь) в схеме рис. 3.3 используются элементы согласования. Поступающий из кабеля оптический сигнал преобразуется в оптическом приемнике в электрический сигнал, который поступает для дальнейших преобразований в электронную схему. Прием осуществляется фотодетектором, выходной ток которого пропорционален входной мощности. Следовательно, подавая оптический сигнал непосредственно на фоточувствительную поверхность фотодетектора, можно преобразовать его в электрический сигнал сохраняя его форму. Оптические системы передачи являются, как правило, цифровыми.


    Это обусловлено тем, что передача аналоговых сигналов требует высокой степени линейности промежуточных усилителей, которую трудно обеспечить в оптических системах. Особенность оптических цифровых методов состоит в том, что передача ведется только однополярными импульсами электрического сигнала, модулирующего оптическую несущую. Последнее объясняется тем, что модулируется не амплитуда, а мощность оптического излучения. Таким образом, наиболее распространенной волоконно-оптической системой связи является в настоящее время цифровая система с временным разделением каналов и ИКМ интенсивности излучения источника. Двухсторонняя связь осуществляется по двум волоконным световодам. По одному световоду передаются сигналы в направлении А-Б, по другому в направлении Б-А. В обоих направлениях сигналы передаются на одной и той же оптический несущей (например, имеющей частоту Каналы передачи информацииГц, соответствующую длине волны l=1,3 мкм). Источники и приемники излучения должны быть взаимно согласованными с кабелем. Для этого необходимо, чтобы:
  • длина волны излучения находилась в области малого затухания кабеля;
  • диаграмма направленности излучения источника соответствовала апертурному углу выбранного световода;
  • фотоприемник имел достаточную чувствительность;
  • соблюдалось соответствие между скоростью передачи информации и шириной спектра излучения источника.
  • Следует иметь в виду, что в связи с сильно выраженными дисперсионными свойствами оптического кабеля приходящие на фотодетектор импульсы могут перекрываться, поэтому требуется использовать специальные алгоритмы оптимального приёма. Для подавления межсимвольной интерференции применяют фильтры (выравниватели), которые располагают после фотодетектора и усилителя. Последующую часть электрической схемы оптимизируют для приема импульсов без межсимвольной интерференции. Расширение импульсов при передачи их по оптическому кабелю эквивалентно их прохождению через четырехполюстник с частотной характеристикой, спадающей в области высоких частот. Для ее выравнивания применяют фильтры, значение коэффициента передачи которых с частотой возрастает, что приводит также к увеличению уровня шума.


    Поэтому характеристику выравнивателя подбирают как компромисс между снижением межсимвольной помехи и возрастанием уровня шумов (связанных с фотодетектированием и усилением) по минимальному уровню требуемой световой мощности на входе фотодетектора. Весьма перспективно применение спектрального уплотнения, при котором в волоконный световод вводится одновременно излучение от нескольких источников, работающих на различных оптических частотах, а на приемной стороне с помощью оптических фильтров происходит разделение сигналов. За счет спектрального уплотнения возможна передача значительно большего объема информации по одному волоконному световоду и организация по нему двухсторонней связи. Частотное разделение каналов На рис. 3.4 показан пример распределения частот несущих в сверхширокополосной системе с частотным разделением каналов. Десять несущих частот распределены с частотным интервалом 100 ГГц в каждой группе несущих. Полоса каждой группы соответствует полосе пропускания оптического разделяющего фильтра 2 ТГц. На рис. 3.5 показана схема разделения несущих на n гетеродинных приемников. Если оптический разделитель мощности не имеет частотной селекциии, то все сигналы будут иметь заметные потери разделения. Разработаны оптические периодические разделяющие фильтры с разделением 10 ГГц (или даже 5 ГГц), на основе интерферометра Маха-Цендера. Идея использования несимметричногоинтерферометра Маха-Цендера в качестве многоволнового мультиплексора/демультиплексора иллюстрируется на рис. 3.6, где показаны принципиальная схема 4-волнового оптического разделителя и его спектральные характеристики. Этот принцип может быть распространен и на более сложные разделители: 8- или 16 волновый. Волоконно-оптический эквивалент классического интерферометра Маха-Зендера показан на рис. 3.7.

    Каналы передачи информации Рис. 3.4. Распределение спектра несущих в системе
    со спектральным разделением Каналы передачи информации Рис. 3.5. Схема регистрации мощности оптического сигнала
    в гетеродинном приемнике с частотным разделением каналов.


    ФД – фотодиоды, ЛД – гетеродины (лазерные диоды),
    УПЧ – усилитель промежуточной частоты,
    Д – детекторы электрических сигналов Каналы передачи информации Рис. 3.6. Принципиальная схема (а) и частотные характеристики (б) 4-волнового мультиплексора/демультиплексора на основе волоконно-оптических интерферометров Маха-Цендера Когерентный приём и демодуляция оптических сигналов Когерентный приём оптических сигналов, в частности, гетеродинный или гомодинный, позволяет перенести спектр информационного сигнала в область промежуточных (вплоть до СВЧ диапазона) и низких частот. Тем самым обеспечивается эффективная обработка и выделение сигналов, а также перенастройка в широкой области частот, занимаемой многоканальными оптическими системами передачи со спектральным уплотнением. Кроме этого, соответствующим выбором мощности гетеродина удается подавить все шумы, кроме дробового шума гетеродина. Это обстоятельство позволяет обеспечить максимальное отношение сигнал-шум на приемной стороне. Каналы передачи информации Рис. 3.7 Волоконно-оптический аналог классического симметричного
    интерферометра Маха-Цендера В практике конструирования когерентных оптических систем передачи информации, как правило, используются цифровые методы передачи. При обработке цифровых сигналов на промежуточной частоте используют хорошо разработанные в радиотехнике схемы и устройства цифровой демодуляции: синхронную и несинхронную демодуляции АМн, ЧМн и ФМн сигналов. Гетеродинный приём оптических сигналов При гетеродинном приёме оптическое электромагнитное поле полезного сигнала суммируется с оптическим полем местного гетеродина (когерентного источника излучения со сдвигом частоты) на фоточувствительной площадке фотодетектора. Суммарное электрическое поле определяется выражением Каналы передачи информации, (77) гдеКаналы передачи информации – комплексные амплитуды полезного оптического сигнала и сигнала гетеродина соответственно, Каналы передачи информации – оптические частоты, x – независимая переменная (время). Интенсивность регистрируемого поля равна Каналы передачи информации (78) где Каналы передачи информации – начальные фазы колебаний. Выходной сигнал фотодетектора, пропорциональный интенсивности поля (3.2), определяется в форме Каналы передачи информации (79) где Каналы передачи информации – частота “биений”, Dj – разность фаз. Таким образом, выражение (79) определяет сигнал на “промежуточной” частотеКаналы передачи информации, равной разности частот оптических колебаний, причём Каналы передачи информацииНа рис. 3.8 показана схема устройства гетеродинного приёма. Каналы передачи информации



    Рис. 3.8. Схема гетеродинного приема Гомодинный приём оптических сигналов При гомодинном методе приема используется принцип оптического гетеродинирования, однако в отличие от гетеродинного приемника, частоты колебаний несущей и местного гетеродина должны быть одинаковыми (Каналы передачи информации), а фазы синхронизированы. Каналы передачи информации Рис. 3.9. Схема гомонного приёмника Сигнал фотодетектора при этом зависит только от разности фаз колебаний, а именно Каналы передачи информации (80) При АМн фазы равны (Каналы передачи информации) и передаче символа “1” соответствует большой уровень напряжения, передаче символа “0” – значение сигнала, равное нулю. При ФМн фаза сигналаКаналы передачи информации изменяется и принимает значение 0 и p рад. Соответственно изменяется разность фаз Dj и значения сигнала (80). На рис. 3.9 иллюстрируется схема гомодинного приёма. Методика инженерного расчета волоконно-оптических систем При инженерном расчете волоконно-оптического канала передачи информации предусматриваются следующие этапы:
  • Выбор системы передачи и определение полосы частот или скорости передачи информации.
  • Выбор типа и конструкции оптического кабеля.
  • Выбор источника излучения, определение его параметров.
  • Выбор фотоприемника, определение его параметров.
  • Определение энергетической характеристики системы.
  • Расчет потерь в линейном тракте.
  • Расчет запаса мощности сигнала.
  • Расчет быстродействия системы.
  • Анализ характеристик системы.
  • На первом этапе расчета определяют скорость передачи информации и выбирают систему передачи, обеспечивающую получение требуемых числа каналов и дальности связи. Затем анализируют сигналы, передаваемые по каналу. В цифровых системах выбирают наиболее оптимальный код и способ модуляции. На втором этапе осуществляется выбор оптического кабеля, наиболее полно удовлетворяющего требованиям системы по своим физико-механическим, массо-габаритным и стоимостным характеристикам. Третьим этапом расчета является выбор источника излучения. Для увеличения срока службы излучателей уменьшают пиковую мощность, так как работа излучателя при повышенных токах накачки ускоряет процесс его деградации. Тип фотоприемника (лавинный или p-i-n фотодиод) определяют исходя из требований, предъявляемых к системе.


    При этом стремятся, чтобы фотоприемник имел максимальную чувствительность в рабочем диапазоне длин волн. Требуемую чувствительность приемника обычно определяют, исходя из заданных значений скорости передачи информации или полосы частот Du. Три следующих этапа расчета связаны с энергетическим расчетами. В начале определяют потери в волоконном световоде. Если система имеет сложную топологию, то следует учитывать потери во всех участках оптического кабеля. Указанные значения определяются коэффициентом затухания кабеля a . Учитываются также потери при вводе излучения оптического источника в световод. Эти потери часто являются основным фактором при решении вопроса об использовании в кабелях оптических жгутов или волокон, выборе числовой апертуры световода. Следует учесть потери в кабельных разъемах и соединениях. Поскольку неразъемные соединения имеют меньшие потери, габаритные размеры и более высокую надежность, чем разъемные, как правило, стараются сократить число разъемных соединений. В зависимости от условий эксплуатации должен быть предусмотрен определенный допуск изменений параметров системы при изменениях температуры окружающей среды. Во многих случаях в приемных и передающих модулях канала вводятся схемы температурной компенсации. Кроме этого, должен предусматриваться запас по мощности сигнала в расчете на возможное ухудшение параметров компонентов (источников излучения, фотодетекторов, волоконных световодов и др.) во времени. При выбранной элементной базе определяют быстродействие системы. После этого с учетом запаса на неточность паспортных данных элементов рассчитывают реальное быстродействие системы. Полученное значение сравнивают с допустимым быстродействием. Повысить быстродействие можно при использовании оптических волокон с меньшей дисперсией. Одним из возможных способов снижения дисперсии является переход от многомодовых волоконных световодов со ступенчатым изменением показателя преломления n по радиусу к градиентным и одномодовым световодом или переход от длин волн Каналы передачи информации к Каналы передачи информации, при этом возможна взаимная компенсация дисперсий в материале и при распространении волн в одномодовых световодах, что обеспечивает минимальную дисперсию в кабеле. Другим возможным способом обеспечения требуемого качества системы является передача необходимого объема информации не по одному световоду, а по нескольким с меньшими скоростями передачи или использованием спектрального уплотнения – передачей того же объема информации по двум или нескольким спектрально-разнесенным каналам, работающим с меньшей скоростью передачи (широкополосностью).


    Выбор одного из указанных вариантов решений определяется наличием технических устройств, реализующих такие системы, и экономических оценок. Величина длины ретрансляционного участка ограничивается либо энергетическим запасом, либо временными параметрами (быстродействием) системы. В первом случае можно ослабить требования к быстродействию излучателей и приемников, а также к дисперсии в световодах; во втором случае можно ослабить требования к чувствительности приемника, мощности, излучаемой источником, типу передаваемого сигнала (например, выбору кода), потерям в кабеле и разъемах. Длина регенерационных участков может быть ограничена из-за шумов перераспределения мод лазеров, шумов, обусловленных отражением, модовых шумов в системах с многомодовым световодом. Указанные ограничения принципиально устранимы. Если в качестве излучателей выбран светоизлучающий диод (оптическая мощность мала и ширина спектра велика из-за некогерентности излучения), то трудности, вызываемые когерентными явлениями, такие как описанные ранее шумы, при этом устраняются. Спектральные свойства обычных многомодовых лазеров близки к свойствам светодиодов. Волоконно-оптические ретрансляторы На рис. 3.10 представлена структурная схема волоконно-оптического ретранслятора для системы с ИКМ. Искаженный и ослабленный оптический сигнал, после того как он пройдет по оптическому волокну, поступает на фотодиод, где происходит его преобразование в электрический сигнал. Малошумящий усилитель усиливает принимаемый сигнал. Эквалайзер компенсирует влияние приемника и дисперсию волокна, уменьшая межсимвольные помехи. Если дисперсия в системе ограничена, то при помощи эквалайзера можно увеличить расстояние между ретрансляторами. Эквалайзер не требуется, если главной задачей является сохранение оптической мощности. Устройство для восстановления сигнала состоит из компаратора сигнала, цепей восстановления отметки времени и формы сигнала, задающего устройства и источника излучения. Регенератор должен воспроизводить нужную форму импульса.


    Эта операция осуществляется с использованием обратной связи, которая реагирует на выходной сигнал. Автоматическая цепь регулирования усиления корректирует изменения уровней входного сигнала, коэффициента усиления и температуры в лавинном фотодиоде. Чтобы воспроизвести нужную последовательность световых импульсов, необходимо обеспечить подачу периодически повторяющего сигнала времени, который синхронизируется с интервалами временных каналов принимаемых импульсов. Такой сигнал времени может формироваться из выходного сигнала приемного устройства путем использования синхронизированного по фазе сигнала цепи восстановления отметки времени, как это показано на рис. 3.10. Изменения в характеристиках импульса могут привести к флуктуациям фазы сигнала времени, что в свою очередь может вызвать к накопление суммарной ошибки на выходе. Для того, чтобы цепь фазовой синхронизации была надежной, следует определить оптимальное соотношение между требованиями, предъявляемыми к фильтру с узкой полосой пропускания в цепи фазовой синхронизации, и способностью стабилизировать модулированную по фазе составляющую сигнала. Каналы передачи информации Рис. 3.10 Структурная схема ретранслятора оптической системы ИКМ
    1 – блок подачи напряжения; 2 – волокно; 3 – вход; 4 – фотодиод;
    5 – усилитель блока ВЧ; 6 – эквалайзер; 7 – основной усилитель;
    8 – блок восстановления отметки времени;
    9 – блок автоматической регулировки усиления; 10 – фильтр;
    11 – амплитудный детектор; 12 – компаратор (анализатор); 13 – логический блок; 14 – задающее устройство; 15 – источник излучения; 16 – выход; 17 - волокно Основные преимущества когерентной волоконно-оптической системы связи состоят в следующем.
  • Выигрыш в чувствительности по сравнению с наиболее широко используемым методом с модуляцией интенсивности излучения оптического источника и прямым детектированием оптического сигнала, который составляет 12..20 дБ и зависит от схемы модуляции-демодуляции и параметров фотодетекторов. Это преимущество позволяет довести длину участков линий когерентной волоконно-оптической связи до 100..200 км.
  • Возможность использования вместо ретрансляторов полупроводниковых оптических усилителей и световодов с потерями менее 1дБ/км позволяет организовать линии связи длиной до Каналы передачи информации км с расстояниями между оптическими усилителями 40..60 км.
  • Чрезвычайная узкополосность лазерных излучателей, присущая когерентным методам связи, снимает ограничение на длину линий связи, накладываемые дисперсией в световоде.Единственным параметром, ограничивающим длину линии, остаются потери в линейном тракте.
  • Возможность использования когерентной модуляции – фазовой и частотной – обеспечивающих высокую помехоустойчивость.
  • Уплотнение по оптической частоте с очень точным разделением несущих в приемнике.







  • Модуляция и управление информационными параметрами сигналов

    2. Модуляция и управление информационными параметрами сигналов
    2.1. Классификация сигналов и методов модуляции
    2.2. Методы амплитудной, фазовой и частотной модуляции
    2.3 Принципы амплитудной и частотной манипуляции
    2.4 Принципы импульсной и цифровой модуляции
    Модуляция сигналов позволяет выполнить преобразование сигналов с целью повышения эффективности и помехоустойчивости процесса передачи информации. В большинстве случаев методы модуляции основываются на управлении параметрами сигналов в соответствии с информационным сообщением. При модуляции сигналов изменяется их форма и спектральные характеристики. Особенности формирования спектров сигналов имеют важное значение для систем связи и телекоммуникаций. 2.1. Классификация сигналов и методов модуляции Сообщения передаются при помощи сигналов. В простейшем случае сообщение может заключаться в наличии (отсутствии) принятого сигнала. При этом требуется решать задачуобнаружения сигнала. Во многих случаях вид передаваемых сигналов заранее известен и приём сообщения состоит в том, чтобы определить, какой из возможных сигналов был передан. Тогда задача состоит в различении сигналов. Если сигналы отличаются значениями их параметров, которые считаются постоянными в течениии некоторого интервала, то необходимо получать оценки параметров сигнала. Сообщение может содержаться в изменениях параметров, т.е. в их мгновенных (локальных) значениях. Тогда для получения сообщения нужно выполнить фильтрацию параметров сигнала. Задача фильтрации, как правило, является более сложной, чем оценивание параметров. Управление информационным параметром сигнала в соответствии с передаваемым сообщением называют модуляцией. Информационный сигнал (сообщение) обозначим q(x), сигнал-переносчик, параметр которого изменяется в соответствии с сообщением, обозначим s(x). При модуляции выполняется преобразование этих двух сигналов в один модулированный сигнал x(x) в соответствии с уравнением Модуляция и управление информационными параметрами сигналов, (1) где Модуляция и управление информационными параметрами сигналов – оператор, определяемый видом модуляции.
    Для выделения сообщения q(x) на приёмной стороне необходимо выполнить обратное преобразование (демодуляцию), т.е. Модуляция и управление информационными параметрами сигналов (2) В зависимости от вида, функциональной формы и числа параметров сигнала-переносчика s(x) и информационного сигнала q (x) варьируются свойства различных методов модуляции, а именно, вид и ширина спектра сигнала x(x), устойчивость к воздействию помех и т.д. Если информационный параметр сигнала-переносчика изменяется непрерывно, то методы модуляции являются непрерывными (распространены, например, методы амплитудной, фазовой и частотной непрерывной модуляции гармонического сигнала-переносчика). В качестве сигнала-переносчика часто используют периодическую последовательность импульсов, тогда модуляцию называют импульсной (например, при изменении амплитуды или частоты импульсов по закону q(x) имеет место амплитудно-импульсная или частотно-импульсная модуляция соответственно). Информационный параметр может принимать счётное число значений, при этом модуляцию называют дискретной. К дискретным видам модуляции относятся, например, амплитудная, частотная и фазовая манипуляции. Если значения параметра закодированы и передаются в цифровой форме, то соответствующие виды модуляции носят название цифровой модуляции. Наиболее распространенным видом цифровой модуляции является импульсно-кодовая модуляция, когда значения сигнала в дискретных точках кодируют в цифровой форме. При создании систем передачи сигналов основными задачами являются разработка методов и математических моделей, определяющих оптимальные режимы модуляции-демодуляции с точки зрения повышения скорости, достоверности и помехозащищённости передачи информации. При классификации видов модуляции принимают в расчёт вид, характер информационного сигнала и сигнала-переносчика: детерминированный процесс, случайный стационарный процесс, нестационарный процесс и т.д. Детерминированные сигналы определяются их амплитудными и фазовыми спектрами на основе свойств рядов Фурье и преобразования Фурье (разд. 1.5.).


    В теории информации и передачи сигналов особое место занимают стохастические сигналы, являющиеся реализациями случайных процессов с заданными характеристиками – корреляционными функциями и спектральными плотностями. Если вид информационного сигнала, сигнала-переносчика и характеристики линии связи заданы, то основной задачей является оптимальный приём сигналов. Задача оптимального приёма, как правило, сводится к задаче различения сигналов по заданному критерию в условиях помех (задача обнаружения рассматривается как различение смеси сигнала и помехи от помехи, когда сигнал отсутствует). Задачи приёма сообщений подразделяют на два класса – когерентный и некогерентный приём, соответственно при наличии и отсутствии синхронизации в канале передачи информации. Методы когерентного (синхронного) приема, как правило, более просты и надёжны. Методы некогерентного (асинхронного) приёма обеспечивают более высокое быстродействие, однако более сложны в реализации. Теория оптимального приёма сигналов является одним из важнейших разделов статистической радиотехники и теории связи. 2.2. Методы амплитудной, фазовой и частотной
    модуляции
    Амплитудная модуляция
    Фазовая модуляция
    Частотная модуляция
    Амплитудная, фазовая и частотная модуляция гармонических сигналов-переносчиков получили наиболее широкое распространение в радиовещании и системах связи. Амплитудная модуляция Амплитудно-модулированный (АМ) сигнал в общем случае определяется выражением Модуляция и управление информационными параметрами сигналов (3) где q(x) – информационный (модулирующий) сигнал, s(x) – сигнал-переносчик, m – коэффициент модуляции. Спектр сигнала (3) можно найти с использованием свойств преобразования Фурье (см. разд. 1.5) в форме Модуляция и управление информационными параметрами сигналов (4) гдеМодуляция и управление информационными параметрами сигналов Формирование спектра (4) иллюстрируется на рис. 2.1 и 2.2. При гармоническом модулирующем сигнале (рис. 2.1) его спектр, как и спектр сигнала-переносчика, представляет собой две дельта-функции. Свертка спектров S(u) и Q (u) приводит к переносу спектра Q(u) на более высокую (так называемую несущую) частоту Модуляция и управление информационными параметрами сигналов. Если модулирующий сигнал имеет сложную форму и, следовательно, протяженный спектр (рис. 2.2), образованный множеством пар дельта-функций с различными положениями на частотной оси, то в результате переноса спектра на несущую частоту Модуляция и управление информационными параметрами сигналов образуются соответствующие спектральные порядки.


    В силу свойств частотной симметрии преобразования Фурье можно показать, что вся полезная информация содержится в спектральном порядке в окрестности частоты Модуляция и управление информационными параметрами сигналов. Демодуляцию АМ сигнала осуществляют путём выделения огибающей сигнала-переносчика при его детектировании и фильтрации нижних частот на выходе детектора. Ширина полосы пропускания фильтра должна соответствовать ширине спектра Q(u) (рис. 2.2), чтобы обеспечить минимальные спектральные искажения восстановленного сигнала. Модуляция и управление информационными параметрами сигналов Рис. 2.1. Спектр АМ сигнала с гармонической модуляцией Модуляция и управление информационными параметрами сигналов Рис. 2.2. Спектр сложного АМ сигнала Фазовая модуляция Фазомодулированный (ФМ) сигнал имеет постоянную амплитуду, фаза сигнала изменяется пропорционально информационному сигналу, а именно Модуляция и управление информационными параметрами сигналов (5) гдеМодуляция и управление информационными параметрами сигналов - несущая частота, m – индекс фазовой модуляции. Пусть модулирующий сигнал является гармоническим, Модуляция и управление информационными параметрами сигналов, и индекс модуляции Модуляция и управление информационными параметрами сигналов При этом выражение (5) можно переписать в виде Модуляция и управление информационными параметрами сигналов (6) учитывая, что при Модуляция и управление информационными параметрами сигналов После преобразования второго слагаемого в (6) получим Модуляция и управление информационными параметрами сигналов (7) Спектр ФМ-сигнала с малым индексом модуляции показан на рис. 2.3. Модуляция и управление информационными параметрами сигналов Рис. 2.3. Спектр и векторная диаграмма для ФМ сигнала при m <<1Модуляция и управление информационными параметрами сигналов Величины спектральных составляющих идентичны величинам спектральных составляющих сигнала с синусоидальной АМ, однако фазовые соотношения между несущей и боковыми составляющими различны. Эти фазовые соотношения более детально показаны графически на векторной диаграмме в правой части рис. 2.3. Меньшие векторы медленно вращаются в противоположных направлениях вокруг быстро вращающегося большого вектора, а x (x) представляет собой проекцию суммы векторов на горизонтальную ось. Однако в отличие от случая АМ сигнала сумма меньших векторов всегда перпендикулярна большему вектору. При этом, если векторы боковых составляющих малы (m << 1), длина суммарного вектора близка по величине амплитуде несущей A, но результирующий вектор вращается с переменной скоростью. Фазовые соотношения в данной векторной диаграмме указывают простой способ генерирования ФМ сигналов с малым индексом модуляции (рис. 2.4) при произвольном модулирующем сигнале q (x). Модуляция и управление информационными параметрами сигналов Рис. 2.4.


    Структурная схема ФМ модулятора при m <<1
    Частотная модуляция При частотной модуляции изменяется мгновенная (локальная) частота u(x) сигнала-переносчика s(x) в соответствии с информационным сигналом q(x), а именно Модуляция и управление информационными параметрами сигналов, (8) где Модуляция и управление информационными параметрами сигналов (9) При синусоидальной ЧМ модулирующий сигнал имеет вид Модуляция и управление информационными параметрами сигналов (10) откуда Модуляция и управление информационными параметрами сигналов (11) Сравнение (6) и (8) с учётом (11) показывает идентичность ФМ и ЧМ при синусоидальной модулирующей функции и индексе модуляции Модуляция и управление информационными параметрами сигналов. Значение aпредставляет собой максимальную девиацию мгновенной угловой частоты относительно несущей угловой частотыМодуляция и управление информационными параметрами сигналов. Простейший демодулятор для ЧМ сигналов или частотный дискриминатор представляет собой резонансный контур, настроенный, например, ниже несущей частоты (рис. 2.5). Изменения мгновенной частоты во входном модулированном сигнале преобразуются в изменения амплитуды сигнала на выходе резонансного контура. Эти амплитудные изменения нетрудно выделить при помощи обычного детектора огибающей. Ограниченный диапазон Модуляция и управление информационными параметрами сигналов Рис. 2.5. Преобразование изменений частоты в изменение амплитуды
    при помощи резонансной цепи Модуляция и управление информационными параметрами сигналов Рис. 2.6. Характеристика дискриминатора,
    полученная с помощью пары резонансных контуров линейности такого дискриминатора можно расширить, применив пару контуров, один из которых настроен соответственно выше, а другой ниже частоты несущей. Выходные сигналы на выходе этих контуров раздельно детектируются и после этого вычитаются, образуя полную характеристику дискриминатора, показанную на рис. 2.6. Выходной сигнал в дискриминаторах такого типа изменяется по амплитуде при вариациях как частоты, так и амплитуды входного сигнала. В реальных системах неконтролируемые изменения амплитуды в ЧМ-сигнале вызываются шумами, помехами, “замираниями” радиоволн и другими факторами. В связи с этим на входе дискриминаторов необходимо включать ограничитель, который представляет собой нелинейное устройство с характеристикой, показанной на рис. 2.7. Ограничитель совместно с включенным на его выходе резонансным усилителем практически устраняет амплитудные изменения огибающей узкополосного сигнала, сохраняя при этом фазовые изменения. Модуляция и управление информационными параметрами сигналов Рис. 2.7.


    Совместная работа ограничителя и резонансного усилителя
    На рис. 2. 8 показана полная структурная схема типового ЧМ приемника. Усилитель высокой частоты (УВЧ) усиливает принятый сигнал, внутренний гетеродин (генератор) вырабатывает гармонический “опорный” сигнал, который перемножается в смесителе с принятым сигналом. В результате формируется сигнал на промежуточной частоте, которая является постоянной при синхронной перестройке частот настройки УВЧ и гетеродина. Усилитель Модуляция и управление информационными параметрами сигналов Рис.2.8. Функциональная схема ЧМ приемника промежуточной частоты УПЧ обеспечивает высокий коэффициент усиления сигнала. Усиленный сигнал после ограничителя поступает на второй УПЧ, выполняющий функции резонансного усилителя в схеме рис. 2.7. Частотный дискриминатор выделяет изменения частоты сигнала, которые в форме низкочастотного сигнала поступают на вход усилителя низкой частоты УНЧ. 2.3. Принципы амплитудной и частотной манипуляции
    Амплитудная манипуляция
    Частотная манипуляция
    Манипуляция относятся к дискретным методам модуляции, в которых информационный параметр принимает счётное число значений. Амплитудная манипуляция При амплитудной манипуляции (АМн) информационным параметром является амплитуда сигнала-переносчика, которая изменяется скачкообразно под действием модулирующего сигнала. Рассмотрим особенности анализа АМн сигнала для случая, когда в роли переносчика выступает гармоническое колебание Модуляция и управление информационными параметрами сигналов, а модулирующим сигналом является периодическая последовательность модулирующих импульсов Модуляция и управление информационными параметрами сигналов где Модуляция и управление информационными параметрами сигналов - длительность импульсов, Модуляция и управление информационными параметрами сигналов- период следования импульсов. Аналитически АМн сигнал определяется выражением Модуляция и управление информационными параметрами сигналов (12) В рассматриваемом примере амплитуда манипулированного сигнала принимает два значения: Модуляция и управление информационными параметрами сигналов Обычно коэффициент модуляции m при АМн выбирается равным единице, поэтому амплитуда модулированного сигнала изменяется скачком в точках Модуляция и управление информационными параметрами сигналов и принимает два значения Модуляция и управление информационными параметрами сигналов и 0. На рис. 2.9 показаны временные диаграммы модулирующего Модуляция и управление информационными параметрами сигналови манипулированного Модуляция и управление информационными параметрами сигналовсигналов. Определим спектр амплитудно манипулированного сигнала (12).


    Представим модулирующий сигнал q(x) в виде ряда Фурье Модуляция и управление информационными параметрами сигналов, (13) где Модуляция и управление информационными параметрами сигналов. Подставив (13) в (12), получим Модуляция и управление информационными параметрами сигналов (14) Модуляция и управление информационными параметрами сигналов Рис. 2.9. Модулирующий и манипулированный сигналы. На рис. 2.10 показан построенный в соответствии с выражением (14) спектр АМн сигнала. Огибающая спектра (штрихованная линия) представляет смещенный на частоту Модуляция и управление информационными параметрами сигналов спектр одиночного видеоимпульсаМодуляция и управление информационными параметрами сигналов. Модуляция и управление информационными параметрами сигналов Рис. 2.10. Формирование спектра сигнала при амплитудной модуляции Интервалы между спектральными линиями равны Модуляция и управление информационными параметрами сигналов (чётные гармоники равны нулю). Отношение периода следования импульсов к их продолжительности называется скважностью импульсов Модуляция и управление информационными параметрами сигналов. Рассмотренный пример соответствует случаю h = 2. При других значениях скважности спектр сигнала может содержать также четные гармонические составляющие частоты Модуляция и управление информационными параметрами сигналов. Частотная манипуляция Сигнал с частотной манипуляцией (ЧМн) формируется в результате скачкообразного изменения частоты сигнала-переносчика, а именно, при манипуляции со скважностью h = 2 ЧМн сигнал внутри периода манипуляции определяется как Модуляция и управление информационными параметрами сигналов где Модуляция и управление информационными параметрами сигналов- изменение частоты, T – период изменения частоты (рис 2.11). Модуляция и управление информационными параметрами сигналов Рис. 2.11. Модулирующие функции частотно манипулированного сигнала Частота сигнала мгновенно изменяется между двумя значениями на оси частот. Результирующий сигнал Модуляция и управление информационными параметрами сигналовможно рассматривать как суперпозицию двух модулированных прямоугольной последовательностью импульсов синусоидальных сигналов различной частоты, как показано на рис. 2.12. Спектр каждой из составляющих представляет собой спектр прямоугольного видеоимпульса с соответственно сдвинутой несущей частотой, как показано на рис. 2.13. Согласно рис. 2.11, периодическая частотная манипуляция соответствует фазовой модуляции сигналом треугольной формы. Модуляция и управление информационными параметрами сигналов Рис. 2.12. Две составляющие частотно манипулированного сигнала Модуляция и управление информационными параметрами сигналов Рис. 2.13. Спектры частотно манипулированного сигнала Во многих случаях при манипуляции модулирующие сигналы не являются периодическими и представляют собой случайные последовательности (соответствующие, например, последовательностям нулей и единиц при передаче информации).


    При этом характеристики сигналов определяются их корреляционными функциями и спектральными плотностями (см. разд. 1.6). 2.4. Принципы импульсной и цифровой модуляции
    Цифровые методы модуляции
    Цифровая амплитудно-импульсная модуляция
    Импульсно-кодовая модуляция
    Фазоимпульсная модуляция
    Дельта-модуляция
    При импульсной модуляции в качестве сигнала-переносчика используется периодическая последовательность видеоимпульсов Модуляция и управление информационными параметрами сигналов (15) где Модуляция и управление информационными параметрами сигналов – амплитуда импульсов, Модуляция и управление информационными параметрами сигналов– функция, описывающая одиночный импульс последовательности, T – период повторения импульсов, Модуляция и управление информационными параметрами сигналов- длительность одного импульса. В качестве примера рассмотрим метод амплитудной импульсной модуляции (АИМ), когда амплитуда импульсов изменяется в соответствии с информационным сигналом Модуляция и управление информационными параметрами сигналов, так что передаваемый сигнал определяется выражением Модуляция и управление информационными параметрами сигналов (16) где m, как и ранее, – коэффициент модуляции. Временная диаграмма сигнала (16) показана на рис. 2.14. Представим последовательность (15) в форме ряда Фурье Модуляция и управление информационными параметрами сигналов (17) где Модуляция и управление информационными параметрами сигналов– комплексные амплитуды, учитывающие амплитуды и начальные фазы отдельных гармоник, Модуляция и управление информационными параметрами сигналов – частота следования видеоимпульсов. В результате подстановки (17) в (16) и преобразования Фурье получим выражение для спектра АИМ сигнала в форме Модуляция и управление информационными параметрами сигналовМодуляция и управление информационными параметрами сигналов (18) Первая сумма в (18) представляет спектр немодулированной последовательности (17). Вторая сумма показывает, что амплитудная модуляция вызывает появление возле каждой составляющей этого спектра боковых полос, повторяющих спектр узкополосного модулирующего сигнала. Поэтому спектр АИМ сигнала представляет упорядоченный набор спектров обычных АМ колебаний (см. рис. 2.2), в которых роль несущих выполняют гармоники (17) частоты следования видеоимпульсов (15). Модуляция и управление информационными параметрами сигналов Рис. 2.14. Модулирующий сигнал (а) и АИМ сигнал (б) Спектр АИМ сигнала показан на рис. 2.15 для случая, когда модулирующий сигналМодуляция и управление информационными параметрами сигналов является узкополосным сигналом со средней частотой Модуляция и управление информационными параметрами сигналов. Рассмотрение спектра АИМ сигнала позволяет сделать ряд практически важных выводов.


    Очевидно, что необходимо выбирать такую частоту повторения импульсов Модуляция и управление информационными параметрами сигналов, при которой не происходит наложения спектров соседних боковых полос. Если это условие выполняется, можно выделить составляющие модулированного сигнала с помощью полосовых фильтров и фильтров нижних частот. Практически важной особенностью спектра АИМ сигнала является наличие около частоты u = 0 составляющих модулирующего сигнала (рис. 2.15). Следовательно, демодуляцию АИМ сигнала можно выполнить фильтром нижних частот без дополнительных преобразований. Фильтр должен пропускать частоты от 0 до Модуляция и управление информационными параметрами сигналов, где Модуляция и управление информационными параметрами сигналов – максимальная частота в спектре модулирующего информационного сигнала. Модуляция и управление информационными параметрами сигналов Рис. 2.15. Модуль спектра АИМ сигнала Частоте Модуляция и управление информационными параметрами сигналовсоответствует период Модуляция и управление информационными параметрами сигналов. Большие интервалы между импульсами используются для размещения импульсов других каналов, например, при многоканальной передаче с временным разделением каналов. Длительность Модуляция и управление информационными параметрами сигналовимпульсов определяет полосу пропускания каналов. Часто АИМ сигнал используется как модулирующий сигнал для создания высокочастотных модулированных колебаний. Вначале формируют АИМ сигнал, затем полученный АИМ видеосигнал используют для модуляции непрерывного высокочастотного переносчика, имеющего частоту много большую, чем Модуляция и управление информационными параметрами сигналов. После таких преобразований спектр сигнала Модуляция и управление информационными параметрами сигналовпереносится на частоту несущего высокочастотного колебания. Цифровые методы модуляции Цифровые виды модуляции используются для передачи кодированных сообщений дискретными методами. Сущность цифровой модуляции заключается в том, что передаваемый непрерывный сигнал дискретизируется во времени, квантуется по уровню и полученные отчеты, следующие в дискретные моменты времени, преобразуются в кодовые комбинации. Полученной последовательностью кодовых видеосигналов модулируется высокочастотный сигнал-переносчик. Следовательно, цифровые методы модуляции основаны на трех необходимых преобразованиях полезных непрерывных сигналов: дискретизации, квантовании и кодировании. Достоинствами цифровых методов модуляции являются:
  • слабое влияние неидеальности и нестабильности характеристик аппаратуры на качество передачи информации;
  • высокая помехоустойчивость даже при использовании каналов с нестабильными характеристиками и большим уровнем шумов;
  • возможность регенерации (восстановления) сигналов в узлах связи сетей, что значительно ослабляет эффект накопления искажений сигналов при передаче информации по линиям большой протяженности;
  • универсальная форма представления сигналов для различных сообщений (речь, телевизионное изображение, дискретные данные, команды управления работой устройств связи и т.п.);
  • низкая чувствительность к нелинейным искажениям в групповом тракте многоканальных систем;
  • относительно простое согласование этих систем с компьютерами и электронными автоматическими телефонными станциями, что играет важную роль для построения сетей связи;
  • возможность автоматизации передачи и обработки сигналов с помощью компьютеров.
  • Основными недостатками систем с цифровыми способами передачи сигналов являются: значительное расширение занимаемой полосы частот каналов, необходимость обеспечения точной синхронизации сигналов и построения аппаратуры для регенерации сигналов на линиях большой протяженности. В настоящее время наибольшее распространение получили системы с импульсной кодовой модуляцей (ИКМ), в которых значение сигнала в дискретные моменты времени преобразуется в двоичные цифровые коды. На рис. 2.16 показаны временные диаграммы сигналов в системе с ИКМ.


    На рис. 2.16, а представлены исходный непрерывный сигнал с ограниченным спектром и дискретизированный сигнал с интервалом дискретизации Модуляция и управление информационными параметрами сигналов, гдеМодуляция и управление информационными параметрами сигналов- верхняя частота спектра сигнала. На рис. 2.16,б показана полученная в результате квантования и кодирования последовательность двоичных видеоимпульсов. Из-за искажений сигналов и шумов в канале принятая видеопоследовательность (рис. 2.16,в) отличается от переданной. Выбирается пороговый уровень Модуляция и управление информационными параметрами сигналов, его превышение в моменты отсчета (стробирования) значения сигнала означает наличие импульса, а непревышение – отсутствие импульса. С помощью формирующих устройств из принятой видеопоследовательности создается “очищенная” последовательность, которая поступает на декодер. С выхода декодера импульсы, площадь которых равна соответствующим импульсным отсчётам исходного сигнала (рис. 2.16,д), поступают на демодулятор, в простейшем случае на вход фильтра нижних частот, на выходе которого восстанавливается копия исходного непрерывного сигнала рис. 2.16,д. Для получения регенерированной кодовой последовательности отсчёты принимаемого сигнала берутся в середине каждого тактового интервала Модуляция и управление информационными параметрами сигналов Рис. 2.16. Диаграммы сигналов в 4-разрядной системе ИКМ длительностью L(рис. 2.16,б и в). Это делается для того, чтобы исключить влияние на работу демодулятора запаздывания и фазовых искажений сигналов в канале связи. В результате регенерируемая последовательность “задержана” на Модуляция и управление информационными параметрами сигналов относительно переданной (рис.2.16,б и г). Правильное декодирование сигналов требует также, чтобы были приняты все разряды кодовой комбинации. Из-за этого принятые отсчёты оказываются дополнительно задержанными относительно передаваемых на интервал дискретизации T (рис. 2.16,а и д). Метод пороговой селекции сигналов на фоне помех часто не обеспечивает требуемой помехоустойчивости и достоверности при приеме кодовых сигналов. Значительно более высокую помехоустойчивость обеспечивает применение метода согласованной фильтрации импульсных сигналов. Проведем сравнительный анализ характеристик методов цифровой амплитудно-импульсной, импульсно-кодовой и фазоимпульсной модуляции при использовании согласованных фильтров. Цифровая амплитудно-импульсная модуляция Предположим, что кодовое сообщение представляет собой последовательность двоичных трехразрядных чисел в качестве одиночных слов.


    Таким образом, всего имеетсяМодуляция и управление информационными параметрами сигналов возможных слов. В описываемых далее системах каждому из 8 слов ставится в соответствии отдельный сигнал длительностью в три тактовых импульса Модуляция и управление информационными параметрами сигналов. В случае АИМ указанные восемь сигналов имеют форму импульсов с восемью возможными значениями амплитуды как показано на рис. 2.17. Максимальная амплитуда равна Модуляция и управление информационными параметрами сигналов, минимальная – 0, остальные значения амплитуды равномерно распределены как кратные величине Модуляция и управление информационными параметрами сигналов. Предположим, что указанный на рисунке сигнал Модуляция и управление информационными параметрами сигналовнепосредственно передается по каналу. Спектр передаваемого АИМ сигнала имеет ширину Модуляция и управление информационными параметрами сигналов, обратно пропорциональную длительности импульса. Если предположить, что восемь уровней равновероятны, то нетрудно доказать, что средняя мощность передаваемого АИМ сигнала равна Модуляция и управление информационными параметрами сигналов. Предполагается, что напряжение на входе приемника представляет собой передаваемый сигнал Модуляция и управление информационными параметрами сигналов с уменьшенной амплитудой (из-за ослабления в канале) и искаженный аддитивной помехой Модуляция и управление информационными параметрами сигналов. Для простоты будем считать, что n(x) – белый шум с постоянной спектральной плотностью Модуляция и управление информационными параметрами сигналови что ослабление в канале отсутствует. Модуляция и управление информационными параметрами сигналов Рис. 2.17. Преобразование сигналов при цифровой АИМ Чтобы восстановить кодовую последовательность, приемник усредняет принимаемый сигнал Модуляция и управление информационными параметрами сигналовв течение каждого интервала Модуляция и управление информационными параметрами сигналов. Это минимизирует влияние шума. Аналогичную операцию усреднения можно выполнить с помощью показанного на рис. 2.18 согласованного фильтра. Отклик согласованного фильтраМодуляция и управление информационными параметрами сигналовна полезный сигнал Модуляция и управление информационными параметрами сигналов в принимаемом колебании представляет собой сумму треугольников, показанных пунктирными линиями на временной диаграмме рис. 2.17,д. Среднеквадратичное значение отклика согласованного фильтра на шумовую составляющую Модуляция и управление информационными параметрами сигналовравно Модуляция и управление информационными параметрами сигналов. (19) Модуляция и управление информационными параметрами сигналов Рис. 2.18. Приемник АИМ сигнала с согласованным фильтром Таким образом, величина каждой выборки на входе стробирующего устройства (рис. 2.18) состоит из суммы напряжения, равного амплитуде сигнала, т.е. Модуляция и управление информационными параметрами сигналов, Модуляция и управление информационными параметрами сигналов, Модуляция и управление информационными параметрами сигналов,Модуляция и управление информационными параметрами сигналов, и напряжения шума со среднеквадратичным значением Модуляция и управление информационными параметрами сигналов.


    Для того, чтобы принимаемое решение о том, какой уровень был передан на предыдущем интервале, имело высокую достоверность (низкую частоту ошибок), среднеквадратичное значение шума должно быть мало по сравнению с разностями между уровнями, т.е. для АИМ Модуляция и управление информационными параметрами сигналов, (20) или при условии Модуляция и управление информационными параметрами сигналов (средняя мощность передаваемого сигнала), Модуляция и управление информационными параметрами сигналов. (21) Это соотношение характеризует мощность передаваемого сигнала и скорость, с которой данная система может передавать двоичную информацию. Таким образом, видно, что полоса пропускания обменивается на отношение сигнал-шум. Этот важный принцип теории связи позволяет объяснить многие свойства методов модуляции, например, преимущество ЧМ над АМ. Импульсно-кодовая модуляция Различие между импульсно-кодовой модуляцией (ИКМ) и АИМ показано на рисунке 2.19. Каждый разряд двоичного числа передается в отдельности: 1 – импульсом длительностью Lи амплитудой B , а 0 – отсутствием импульса. Если 0 и 1 равновероятны, то средняя мощность передаваемого сигнала равнаМодуляция и управление информационными параметрами сигналов, а его полоса составляет примерно Модуляция и управление информационными параметрами сигналов. Следовательно, ИКМ сигнал в рассматриваемом примере занимает в 3 раза более широкую полосу по сравнению с АИМ сигналом, что является серьезным недостатком. Приемник системы ИКМ аналогичен приемнику для АИМ сигнала с тем отличием, что его согласованный фильтр должен иметь импульсную характеристику втрое меньшей длительности и в 3 раза более широкую полосу пропускания, как показано на рис. 2.20. В результате среднеквадратичное значение шумов на выходе приемника Модуляция и управление информационными параметрами сигналов (22) в 3 раза выше по сравнению со значением для АИМ приемника. Это является недостатком ИКМ сигнала. Однако разность между уровнями сигнала на входе устройства выборки ИКМ в приемнике равна максимальной амплитуде сигнала B, а не Модуляция и управление информационными параметрами сигналовамплитуды, как в АИМ системе. Благодаря этому с запасом компенсируется повышенный уровень выходных шумов, поскольку для достижения малой вероятности ошибок в ИКМ системе требуется выполнить условие Модуляция и управление информационными параметрами сигналов (23) или, полагая Модуляция и управление информационными параметрами сигналов, Модуляция и управление информационными параметрами сигналов. (24) При одной и той же вероятности ошибок ИКМ система может иметь примерно в 10 раз меньшую мощность сигнала по сравнению с АИМ.


    При равных мощностях ИКМ система имеет гораздо лучшие характеристики. Модуляция и управление информационными параметрами сигналов Рис. 2.19. Преобразование сигналов в ИКМ Фазоимпульсная модуляция Принцип фазоимпульсной модуляции иллюстрируется на рис. 2.21. По своим характеристикам она превосходит рассмотренную ИКМ систему, но этот выигрыш достигается за счет расширения полосы частот. В каждом интервале длительностьюМодуляция и управление информационными параметрами сигналов передается один импульс с фиксированной амплитудой, но его длительность составляет всего Модуляция и управление информационными параметрами сигналов и он находится в одном из восьми временных положений. Таким образом, полоса указанного сигнала равна Модуляция и управление информационными параметрами сигналов или в 8 раз превышает полосу АИМ сигнала и в 2,7 раз больше полосы ИКМ сигнала. Средняя мощность сигнала составляет Модуляция и управление информационными параметрами сигналов. Модуляция и управление информационными параметрами сигналов Рис. 2.20. Импульсный отклик согласованного фильтра протяженностью L для ИКМ сигнала; протяженностью 3L/8 для ФИМ сигнала Длительность импульсной характеристики согласованного фильтра составляет Модуляция и управление информационными параметрами сигналов. Тогда среднеквадратическое значение выходного шума равно Модуляция и управление информационными параметрами сигналов, что намного больше по сравнению с ИКМ или АИМ. Однако при этом значительно больше и разность между уровнями сигналов. Для достижения низкой вероятности ошибок необходимо обеспечить выполнение условия Модуляция и управление информационными параметрами сигналов (25) или, полагая Модуляция и управление информационными параметрами сигналов, Модуляция и управление информационными параметрами сигналов. (26) Следовательно, ФИМ система обеспечивает такое же качество, как и ИКМ при снижении на Модуляция и управление информационными параметрами сигналов средней мощности сигнала, но требуемая полоса частот в этом случае расширяется в три раза. Таким образом, в смысле обмена полосы на соотношение сигнал-шум, ФИМ-система уступает ИКМ-системе. Модуляция и управление информационными параметрами сигналов
    Рис. 2.21. Преобразование сигналов в ФИМ Дельта-модуляция Эффективным способом преобразования сигналов в цифровую форму является дельта-модуляция, которая иллюстрируется рис. 2.22. В каждый момент отсчета сигнал сравнивается с пилообразным напряжением на каждом шаге дискретизации d . Если отсчет сигнала превышает по амплитуде пилообразное напряжение, то последнее нарастает до следующей точки дискретизации, в противном случае оно спадает. В простейшей системе наклон пилообразного напряжения сохраняется неизменным на всем протяжении процесса.Полученный бинарный сигнал можно рассматривать как производную от пилообразного напряжения. Выбирая достаточно малым значение шага d , можно получить любую заданную точность представления сигнала. Преимущество дельта-модуляции по сравнению, например, с ИКМ, которая также образует бинарный сигнал, заключается не столько в реализуемой точности при заданной частоте дискретизации, сколько в простоте реализации. Модуляция и управление информационными параметрами сигналов Рис. 2.22. Преобразование сигнала при дельта-модуляции Пилообразное напряжение можно восстановить из бинарного сигнала путем интегрирования, а более гладкая аппроксимация достигается последующим пропусканием сигнала через фильтр нижних частот. Скорость передачи цифровых кодов, необходимую для получения заданного качества, можно значительно уменьшить, используя, например, линейное кодирование с предсказанием.

    Основы теории информации и теории сигналов

    1. Основы теории информации и теории сигналов
    1.1. Основные понятия теории информации
    1.2. Информационные характеристики источников дискретных сообщений
    1.3. Принципы кодирования информации
    1.4. Взаимосвязь теории информации, теории вероятностей и спектральной теории сигналов
    1.5. Элементы спектральной теории сигналов
    1.6. Принципы дискретизации непрерывных сигналов
    1.1. Основные понятия теории информации
    Объекты информационной техники
    Виды сообщений в информационных системах
    Определение количества информации
    В теории информации и передачи сигналов подинформацией понимают совокупность сведений о каких-либо событиях, процессах, явлениях и т.п., рассматриваемых в аспекте их передачи в пространстве и во времени. Информацию передают в виде сообщений. Сообщением называют информацию, выраженную в определенной форме и предназначенную для передачи от источника к адресату. Примерами сообщений служат тексты телеграмм, речь, музыка, телевизионное изображение, данные на выходе компьютера, команды в системе автоматического управления объектами и т.п. Сообщения передают с помощью сигналов, которые являются носителями информации. Основным видом сигналов являются электрические сигналы. В последнее время всё большее распространение получают оптические сигналы, например, в волоконно-оптических линиях передачи информации. В теории информации изучают свойства процессов, которые имеют место при передаче информации на расстояние при помощи сигналов. При этом важное значение имеют понятия качества и скорости передачи информации. Качество передачи информации тем выше, чем меньше искажения информации на приёмной стороне. С увеличением скорости передачи информации требуется принимать специальные меры, препятствующие потерям информации и снижению качества передачи информации. Объекты информационной техники По функциональному назначению можно выделить основные классы объектов информационной техники:
  • сети и системы связи и телекоммуникаций (телеграфные, телефонные, телевизионные, компьютерные и т.п.);
  • информационно-измерительные системы (радионавигационные, радиолокационные, телеметрические и т.п.);
  • системы преобразования информации (аналого-цифровые, цифро-аналоговые преобразователи, цифровые компьютеры и др.);
  • информационно-поисковые системы и системы хранения информации на основе баз данных;
  • системы экспериментального наблюдения и управления объектами.
  • Обобщённая структурная схема системы передачи информации показана на рис.1.1. Основы теории информации и теории сигналов Рис. 1.1.
    Структурная схема системы передачи информации
    Передатчик преобразует исходное сообщение A(x) в сигналОсновы теории информации и теории сигналов, где x – независимая переменная. Сообщения и сигналы чаще всего рассматриваются в зависимости от времени. Роль линии связи может выполнять любая физическая среда (воздух, провода, оптическое волокно). В приёмнике полученный сигналОсновы теории информации и теории сигналов, искаженный влиянием помех, преобразуется в копию сообщения B(x), которая должна быть по возможности наиболее близка к оригиналу A(x). Многоканальная система передачи информации обеспечивает одновременную и взаимно независимую передачу сообщений от многих отправителей по одной общей линии связи. Структурная схема такой системы показана на рис.1.2. Узел связи (информационный узел) является более сложной системой, поскольку помимо многоканальной передачи (приёма) информации он обеспечивает:
  • выбор кратчайшего пути между источником и получателем сообщения;
  • соблюдение системы приоритетов;
  • накопление и хранение информации при отсутствии свободных каналов передачи;
  • компьютерное управление всеми перечисленными функциями в автоматическом режиме.
  • Информационная сеть является совокупностью информационных узлов, соединенных линиями связи. На рис.1.3. показан пример графа информационной сети. Основы теории информации и теории сигналов Рис. 1.2. Структурная схема многоканальной системы.
    ИС, ПС – источники и получатели сообщений,
    К – кодеры, М – модуляторы, Дк – декодеры, Дм – демодуляторы. Вершины графа Основы теории информации и теории сигналовопределяют информационные узлы, дуги – линии связи, координатами которых Основы теории информации и теории сигналовявляются пропускная способность, интенсивность потока сообщений, стоимость канала связи и т.п. Информационную сеть рассматривают как сетевую систему массового обслуживания. При создании информационных сетей требуется решать задачи анализа, синтеза, оптимизации. Основными классами задач являются:
  • Анализ информационных характеристикисточников сообщений.
  • Анализ и синтез сигналов и помех.
  • Анализ и синтез помехоустойчивости методов передачи информации.
  • Анализ и синтез корректирующих кодов (обнаружение и исправление ошибок).
  • Анализ и синтез каналов передачи информации.
  • Основы теории информации и теории сигналов Рис. 1.3.


    Пример графа информационной сети (пунктир – возможные линии связи, сплошные – примеры выбранных оптимальных линий связи)
    Виды сообщений в информационных системах Дискретное сообщение является конечной последовательностью отдельных символов. Для преобразования дискретного сообщения в сигнал необходимо выполнить операцию кодирования сообщения, при котором повышается скорость и помехоустойчивость передачи информации. Непрерывное сообщение определяется непрерывной функцией времени. Непрерывные сообщения можно передавать дискретными методами. Для этого непрерывный сигнал (сообщение) подвергаютдискретизации во времени и квантованию по уровню. На приёмной стороне выполняется восстановление непрерывной функции по дискретным отсчётам. При математическом описании сообщений формирование дискретных сообщений рассматривают как последовательный случайный выбор того или иного символа из алфавита источника сообщений, т.е. как формирование дискретной случайной последовательности. Формирование непрерывных сообщений представляет собой выбор реализаций (случайных функций) непрерывного случайного процесса. Основными информационными характеристиками являются количество информации в сообщениях, избыточность сообщений, энтропия, производительность источника сообщений, скорость передачи информации. Указанные характеристики рассмотрим для случая дискретных сообщений. Пусть объем алфавита A составляет m дискретных сообщений. Каждое сообщение включает n символов. В принятых обозначениях общее количество дискретных символов составляет Основы теории информации и теории сигналов. Покажем, как определяется количество информации в сообщениях такого источника. При определении количества информации должны быть выполнены следующие условия:
  • сообщения большей протяжённости содержат, как правило, большее количество информации;
  • если алфавит имеет больший объём, то каждое отдельное сообщение содержит больше информации;
  • информация, полученная в нескольких сообщениях, должна удовлетворять условию аддитивности.
  • Удобной характеристикой сообщений является логарифмическая мера количества информации I, удовлетворяющая перечисленным выше требованиям, а именно Основы теории информации и теории сигналов. Эта формула предложена Р.Хартли в 1928 г.


    как мера количества информации. Формула Хартли не отражает случайного характера формирования сообщений. Чтобы устранить этот недостаток, необходимо связать количество информации в сообщениях с вероятностью появления символов. Эта задача была решена К. Шенноном в 1948 г. Следует упомянуть работы академика В. А. Котельникова о пропускной способности эфира и проволоки в электросвязи (1937 г.) и оптимальному приёму сигналов на фоне помех (1946 г.). Определение количества информации Пусть сообщение состоит из одного символа. Если вероятности появления всех символов одинаковы и равны P = 1/m, то количество информации, которое переносит символ, можно выразить как Основы теории информации и теории сигналов. Здесь количество информации связано с вероятностью появления символа. В реальных сообщениях символы Основы теории информации и теории сигналов появляются с различными вероятностями Основы теории информации и теории сигналов, поэтому Основы теории информации и теории сигналов. Среднее количество информации H(A), которое приходится на один символ источника сообщений можно найти усреднением по всему объему алфавита Основы теории информации и теории сигналов. (1) Эта величина называется энтропией источника дискретных сообщений. Формула (1) носит название формулы Шеннона. Энтропия рассматривается как мера неопределенности в поведении источника сообщений. При вероятностном подходе состояние источника информации характеризуется неопределенностью. Неопределенность снижается при приеме сообщения, т.е. получении информации. Поэтому получаемая информация, приходящаяся в среднем на один символ источника сообщений, количественно определяет степень уменьшения неопределенности. Энтропия является непрерывной функцией от вероятностей появления символов и обладает следующими свойствами:
  • Энтропия источника дискретных сообщений есть величина вещественная, ограниченная и неотрицательная.
  • Энтропия равна нулю, если с вероятностью единица выбирается один и тот же символ (неопределенность в поведении источника отсутствует).
  • Энтропия максимальна, если все символы источника появляются независимо и с одинаковой вероятностью:
  • Основы теории информации и теории сигналов. Если символы являются взаимосвязанными (коррелированными друг с другом), то используется понятие условной энтропии Основы теории информации и теории сигналов, (2) гдеОсновы теории информации и теории сигналов– условная вероятность появления символа Основы теории информации и теории сигналов после символа Основы теории информации и теории сигналов. Из-за корреляционных связей символов и неравновероятного их появления в реальных сообщениях снижается среднее количество информации, которое переносит один символ.


    Эти потери информации характеризуются коэффициентом избыточности Основы теории информации и теории сигналов, Основы теории информации и теории сигналов– максимальное количество информации, которое может переносить один символ, H – количество информации, которое переносит один символ в реальных сообщениях (например, для европейских языков Основы теории информации и теории сигналов). Наиболее часто основание логарифма в (1) принимают равным 2. При этом единицей количества информации является бит (binary digit). Производительностью источника сообщений называется среднее количество информации, выдаваемой источником в единицу времени, а именно Основы теории информации и теории сигналов[бит/с]. Для каналов передачи информации вводят аналогичную характеристику – скорость передачи информации C. Максимальное её значение называется пропускной способностью канала. Для дискретного канала Основы теории информации и теории сигналов[бит/с], (3) где V– скорость передачи электрических кодовых сигналов. 1.2. Информационные характеристики источников дискретных сообщений
    Свойства двоичных источников информации
    Рассмотрим свойства условной энтропии с учётом неравновероятного появления символов и статистической взаимосвязи между ними. Примем для простоты, что появление символаОсновы теории информации и теории сигналов связано только с тем, какой был предыдущий символ Основы теории информации и теории сигналов (процесс формирования сообщений – простая цепь Маркова). Энтропия совместного появления двух символов Основы теории информации и теории сигналов, (4) где Основы теории информации и теории сигналов – вероятность совместного появления символов Основы теории информации и теории сигналов и Основы теории информации и теории сигналов. Количество информации, которое приходится на слог Основы теории информации и теории сигналов равно Основы теории информации и теории сигналов. Учитывая, что Основы теории информации и теории сигналов, запишем Основы теории информации и теории сигналов (5) Учитывая условие нормировки Основы теории информации и теории сигналов, перепишем последнее выражение для энтропии совместного появления двух символов в форме Основы теории информации и теории сигналов, (6) где H(A) – энтропия источника, которая определена в (1) и соответствует первому слагаемому в (5), Основы теории информации и теории сигналов – условная энтропия источника, определяемая выражением (2). Среднее количество информации, которое переносят два соседних символа, равно сумме среднего количества информации, которое переносит первый из них, и среднего количества информации, которое переносит второй при условии, что первый уже появился. Условная энтропия одного символа есть среднее количество информации, которое переносит последующий символ при условии, что предыдущий уже известен: Основы теории информации и теории сигналов. Если символы Основы теории информации и теории сигналови Основы теории информации и теории сигналоввзаимозависимы, то Основы теории информации и теории сигналов.


    Для источников с независимыми символами Основы теории информации и теории сигналов. Корреляционные связи могут существовать между (L+1) символами, тогда источник имеет память на L символов. Свойства двоичных источников информации Пусть символы источника есть Основы теории информации и теории сигналов, Основы теории информации и теории сигналов (m = 2), вероятности их появления Основы теории информации и теории сигналов,Основы теории информации и теории сигналов. Условные вероятности обозначим Основы теории информации и теории сигналов, Основы теории информации и теории сигналов, Основы теории информации и теории сигналов, Основы теории информации и теории сигналов. Случай независимых равновероятных символов Вероятности Основы теории информации и теории сигналов, условные вероятности равны нулю. Энтропия такого источника максимальна: Основы теории информации и теории сигналов. Таким образом, 1 бит – это максимальное среднее количество информации, которое может переносить один символ источника двоичных сообщений. Случай независимых неравновероятных символов Вероятности Основы теории информации и теории сигналовусловные вероятности равны нулю. Энтропия такого источника равна Основы теории информации и теории сигналов. (7) Зависимость (7) показана на рис. 1.4. Максимум энтропии достигается при Основы теории информации и теории сигналов. Поскольку Основы теории информации и теории сигналов при Основы теории информации и теории сигналов, то производительность такого источника меньше максимальной. Избыточность Основы теории информации и теории сигналов Пример: Пусть Основы теории информации и теории сигналов Тогда Основы теории информации и теории сигналов Основы теории информации и теории сигналов Рис. 1.4. Энтропия двоичного источника сообщений
    с неравновероятными символами Случай коррелированных равновероятных символов ПустьОсновы теории информации и теории сигналов, условные вероятности отличны от нуля и равныОсновы теории информации и теории сигналов. Условная энтропия с учетом соотношения (2) равна Основы теории информации и теории сигналов Например, если Основы теории информации и теории сигналов, то Основы теории информации и теории сигналов При некоррелированных равновероятных символах двоичного источника энтропия равна Основы теории информации и теории сигналов. Следовательно, наличие статистических связей между символами приводит к уменьшению энтропии и увеличению избыточности источника. Задание: Получить выражение для энтропии и избыточности двоичного источника с коррелированными неравновероятными символами. Указание: Основы теории информации и теории сигналовПринять Основы теории информации и теории сигналовОсновы теории информации и теории сигналовОсновы теории информации и теории сигналовОсновы теории информации и теории сигналов Записать формулу и найти Основы теории информации и теории сигналов [бит/симв]. Сравнить со случаем некоррелированных равновероятных символов. 1.3. Принципы кодирования информации
    Принципы обнаружения и исправления ошибок
    Эффективное (статистическое) кодирование осуществляется с целью повышения скорости передачи информации и приближения её к пропускной способности канала. Теорема Шеннона для эффективных кодов (без доказательства): для канала без помех всегда можно создать систему эффективного кодирования дискретных сообщений, у которой среднее количество двоичных кодовых сигналов на один символ сообщения будет приближаться как угодно близко к энтропии источника сообщений. Корректирующее (помехоустойчивое) кодирование имеет целью повышение верности передачи информации путём обнаружения и исправления ошибок. Теорема Шеннона для корректирующих кодов (без доказательства): для канала с помехами всегда можно найти такую систему кодирования, при которой сообщения будут переданы со сколь угодно высокой степенью верности, если только производительность источника сообщений не превышает пропускной способности канала. При кодировании каждый символ дискретного сообщения пронумеровывается, и передача сообщений сводится к передаче последовательности чисел. Например, для передачи русских букв нужно передавать числа от 1 до 32. Если основание системы счисления есть g , то n – разрядное число X можно записать в виде полинома Основы теории информации и теории сигналов (8) гдеОсновы теории информации и теории сигналов – целые числа, Основы теории информации и теории сигналов В двоичной системе, очевидно, Основы теории информации и теории сигналов= 0 или 1. Кодом называется полная совокупность условных символов, которую применяют для кодирования сообщений.


    Число различных символов в коде называется основанием кода. Код с основанием 2 – бинарный, с другими основаниями – многопозиционный. Пример: Основы теории информации и теории сигналов Кодовая комбинация – это последовательность кодовых символов, соответствующих одному элементу (символу) дискретного сообщения, т.е. число, записанное в выбранной системе счисления. Число символов в кодовой комбинации называется значностью кода. Оператор кодирования показывает, какую кодовую комбинацию присваивают каждому элементу сообщения. Если все кодовые комбинации содержат одинаковое число символов, код называют равномерным, в иных случаях – неравномерным. Для равномерного кода общее число различных кодовых комбинаций равно Основы теории информации и теории сигналов где b – основание кода, n – значность кода. Примеры: Равномерный код Бодеb = 2, n = 5, N = 32. Код Морзе – неравномерный (наиболее часто встречающиеся буквы кодируются наиболее короткими кодовыми комбинациями). Принципы обнаружения и исправления ошибок. Идея обнаружения ошибок заключается в том, что для передачи сообщений используют не все N кодовых комбинаций, а только часть из них Основы теории информации и теории сигналов, которые называются разрешёнными. Оставшиеся Основы теории информации и теории сигналов комбинаций называют запрещёнными. Ошибки обнаруживают тогда, когда на приёмной стороне получают запрещённую комбинацию. Доля обнаруживаемых ошибок Основы теории информации и теории сигналов Если Основы теории информации и теории сигналов т.е. Основы теории информации и теории сигналов, то код не способен обнаруживать ошибки и его называют примитивным (безызбыточным). Избыточность корректирующего кода определяется формулой Основы теории информации и теории сигналов. Очевидно, что доля обнаруживаемых ошибок растёт с увеличением избыточности кода. Исправление ошибок корректирующими кодами основано на определении “расстояния” между кодовыми комбинациями и отыскании минимального расстояния до разрешённой кодовой комбинации. РасстояниемОсновы теории информации и теории сигналов между кодовыми комбинациями Основы теории информации и теории сигналов и Основы теории информации и теории сигналов называют результат сложения по модулю b одноименных разрядов кодовых комбинаций Основы теории информации и теории сигналов (9) где Основы теории информации и теории сигналов и Основы теории информации и теории сигналов – k-й разряд кодовых комбинаций, n – значность кода. При суммировании по модулю результат равен модулю суммы разрядов, если этот модуль меньше b. Если модуль суммы разрядов больше b, то результат получают вычитанием b из суммы. Аналитическая запись сложения по модулю b имеет вид Основы теории информации и теории сигналов Таким образом, расстояние между кодовыми комбинациями получают поразрядным суммированием по модулю с последующим обычным суммированием (вычитанием). Для равномерного двоичного кода кодовое расстояние – это число символов, на которое отличается одна комбинация от другой.


    Например, если Основы теории информации и теории сигналовОсновы теории информации и теории сигналовто Основы теории информации и теории сигналов. Методика исправления ошибок состоит в том, что, обнаружив ошибку, вычисляют расстояние от полученной запрещённой комбинации Основы теории информации и теории сигналов до всех разрешённых Основы теории информации и теории сигналов В качестве переданной принимают ту из разрешённых комбинаций, до которой расстояние является наименьшим. Например, если Основы теории информации и теории сигналовто полагают, что была передана комбинация Основы теории информации и теории сигналов. 1.4. Взаимосвязь теории информации, теории вероятностей и спектральной теории сигналов Информационные характеристики сообщений, как было показано, определяются на основе их вероятностных характеристик. Рассмотрим понятие энтропии в обобщенном виде. Пусть Основы теории информации и теории сигналов – совокупность дискретных отсчётов случайного процесса Основы теории информации и теории сигналов в точках Основы теории информации и теории сигналов, где Основы теории информации и теории сигналовОсновы теории информации и теории сигналов– векторы-столбцы, компоненты которых являются случайными величинами – значениями N случайных функций, т.е. реализаций случайного процесса Основы теории информации и теории сигналов, в сечениях Основы теории информации и теории сигналов (рис. 1.5). Пусть Основы теории информации и теории сигналов – совместная вероятность значений отсчётов. Совокупность возможных значений дискретных отсчетов Основы теории информации и теории сигналов при квантовании по уровню можно рассматривать как “алфавит”, из которого выбирают “символы” (конкретные дискретные значения отсчётов). Если “объём алфавита” равен m, то это означает, что отсчёты квантованы по m уровням. Каждое значение сигналаОсновы теории информации и теории сигналов, представляет собой символ Основы теории информации и теории сигналов. Тогда, по определению, энтропия отсчётов процесса равна Основы теории информации и теории сигналов (10) Формула (10) в принципе позволяет рассчитать, хороша ли система передачи информации или нет (в битах на символ), но из формулы не следуют непосредственные рекомендации, как улучшить эту систему. Физическими носителями информации являются сигналы, их значения, а не вероятности. Поэтому ясно, что именно свойства сигналов должны влиять на эффективность передачи информации. Рассмотрим сущность этого влияния подробнее. Для полной совокупности дискретных отсчётов Основы теории информации и теории сигналов можно вычислить корреляционную матрицу Основы теории информации и теории сигналов, (11) где Основы теории информации и теории сигналов скобки Основы теории информации и теории сигналов обозначают усреднение по ансамблю реализаций. Основы теории информации и теории сигналов Рис. 1.5. Реализации Основы теории информации и теории сигналови сечения в точках Основы теории информации и теории сигналов
    случайного процессаОсновы теории информации и теории сигналов; реализации Основы теории информации и теории сигналов, при квантовании принимают


    одно из m возможных значений. В теории стационарных случайных процессов одной из основополагающих является теорема Винера–Хинчина, устанавливающая взаимосвязькорреляционной функции R(c), где c – интервал, на котором вычисляется статистическая взаимосвязь значений сигнала, и спектральной плотности G(u) сигнала, зависящей от частоты u, в форме Основы теории информации и теории сигналов, где F{Ч } – оператор преобразования Фурье. Таким образом, можно заключить, что спектральная плотность мощности (т.е. распределение мощностисигнала по частотам) характеризует корреляционную функцию, для дискретных процессов – корреляционную матрицу (11). В свою очередь, можно показать, что корреляционная матрица полностью определяет совместную вероятность значений совокупности отсчётов гауссовского процесса. При известной совместной вероятности можно вычислить энтропию (10). Такие рассуждения позволяют выполнить математические преобразования и получить формулу, связывающую энтропию отсчётов гауссовского процесса и спектральную плотность, а именно Основы теории информации и теории сигналов, (12) где Основы теории информации и теории сигналов – значения спектральной плотности для значений частотыОсновы теории информации и теории сигналов. Замечания:
  • В последней формуле подразумевается, что вся мощность сигнала сосредоточена на частотах Основы теории информации и теории сигналов (что характерно, например, для случайных сигналов в виде суммы периодических сигналов).
  • Следует различать понятие спектра мощности и амплитудного спектра. Последнее понятие используется для анализа детерминированных сигналов в частотной области. Эти две величины, как будет показано далее, имеют разные физические размерности.
  • Таким образом показано, что энтропия источника сообщений, рассматриваемых как реализации гауссовского случайного процесса, определяется спектральной плотностью процесса. Для гауссовского процесса энтропия вычисляется по формуле (12). Следовательно, информационные характеристики передаваемых сообщений определяются спектральными характеристиками сигналов. 1.5. Элементы спектральной теории сигналов
    Ряды Фурье
    Преобразование Фурье
    Дискретное преобразование Фурье
    Финитное преобразование Фурье
    Математическое описание систем передачи и обработки сигналов
    Детерминированные и стохастические сигналы сигналов
    Спектральное представление позволяет перейти от описания сигналов в области независимой переменной (времени) к частотной области.


    Теорема о производной. Если Основы теории информации и теории сигналов то Основы теории информации и теории сигналов (27) 5. Свойство четности и нечетности. ЕслиОсновы теории информации и теории сигналов то в случае, когда s(x) четная функция, имеем Основы теории информации и теории сигналов – четная функция; при s(x) нечетной Основы теории информации и теории сигналов– нечетная функция. 6. Свойство подобия. Основы теории информации и теории сигналов (28) где a – постоянная. 7. Сохранение энергии. Основы теории информации и теории сигналов (29) Из этого соотношения следует, что Основы теории информации и теории сигналов для любых сигналов Основы теории информации и теории сигналов и Основы теории информации и теории сигналов, имеющих спектры Основы теории информации и теории сигналов и Основы теории информации и теории сигналов. 8. Спектр свертки: Основы теории информации и теории сигналов (30) Таким образом, преобразование Фурье, примененное к свертке двух сигналов, равно произведению спектров этих сигналов. Дискретное преобразование Фурье При обработке последовательности отсчётов сигнала интегральные соотношения следует заменить соответствующими операциями дискретного суммирования. Алгоритмы преобразования Фурье дискретной последовательности отсчётов s(p), имеющей конечную длину, Основы теории информации и теории сигналов сводятся к вычислению конечного числа коэффициентов S(q), Основы теории информации и теории сигналовсогласно соотношению Основы теории информации и теории сигналов (31) Обратимся к выражению (21) и сравним его с (31). Формула (31) представляет собой дискретную аппроксимацию преобразования (21), при которой функция s(x) заменяется ступенчатой функцией Основы теории информации и теории сигналов в пределах протяженности элемента дискретизации. Таким образом, следует помнить, что выражение (31) есть приближение, качество которого должно улучшаться при увеличении N и соответствующем уменьшении шага дискретизации Dx. Дискретное преобразование Фурье (ДПФ) обычно вычисляют при условии Основы теории информации и теории сигналов, т.е. Основы теории информации и теории сигналов (32) где Основы теории информации и теории сигналов Можно доказать, что для ядра преобразования (32) выполняется следующее тождество: Основы теории информации и теории сигналов При этом обратное ДПФ (ОДПФ) определяется в форме Основы теории информации и теории сигналов (33) Свойства ДПФ можно получить из формул (24) – (30), имея в виду дискретный характер последовательности отсчётов сигнала. Финитное преобразование Фурье Всякий реальный сигнал имеет ограниченную протяженность. При этом вместо обычного преобразования Фурье Основы теории информации и теории сигналов (34) имеем финитное преобразование в конечных пределах Основы теории информации и теории сигналов где 2X – интервал регистрации сигнала. Для случая непрерывного изменения независимой переменной x с учётом (30) можно записать: Основы теории информации и теории сигналов, (35) где Основы теории информации и теории сигналов – прямоугольная функция протяженностью 2X. Отличие (35) от идеального преобразования Фурье (21) иллюстрируется на рис. 1.6 для отрезка сигнала протяженности L=2X. Заметим, что середина отрезка L при этом смещена по горизонтальной оси на интервал X.


    Согласно свойству преобразования Фурье (25), это вызывает фазовый сдвиг 2p uX, пропорциональный значениям частоты u, но не изменяет модуль спектра. Основы теории информации и теории сигналов Рис. 1.6. Изменения спектра при ограниченной протяженности сигнала Для случая дискретных отсчётов, взятых в точках Основы теории информации и теории сигналовОсновы теории информации и теории сигналов получим спектральные линии на дискретных частотах Основы теории информации и теории сигналов Частота Основы теории информации и теории сигналовназывается фундаментальной частотой финитного преобразования Фурье. При этом Основы теории информации и теории сигналов (36) т.е. финитное преобразование Фурье связано с коэффициентамиОсновы теории информации и теории сигналов ряда Фурье, а именно: Основы теории информации и теории сигналов Иначе говоря, финитное преобразование Фурье сводится к нахождению коэффициентов ряда Фурье для функции s(x), периодически продолженной с периодом Основы теории информации и теории сигналов(рис. 1.7). При нецелом числе периодов, укладывающихся на отрезке L, происходит искажение спектра. Основы теории информации и теории сигналов Рис. 1.7. Трансляция отрезков сигнала ограниченной протяженности Математическое описание систем передачи и обработки
    сигналов В системах передачи и обработки сигналов осуществляется преобразование входных сигналовОсновы теории информации и теории сигналов в выходные Основы теории информации и теории сигналов. Характеристики преобразования могут быть заданными (например, при фильтрации сигналов) или должны быть исследованы (например, при анализе характеристик линий передачи информации). Во всех случаях используются основные положения теории систем. Наиболее важными являются линейные системы, подчиняющиеся принципу суперпозиции: Основы теории информации и теории сигналов, (37) где a и b – постоянные, T – оператор системы. Импульсной характеристикой (реакцией) системы, по определению, называется функция Основы теории информации и теории сигналов, (38) где Основы теории информации и теории сигналов – дельта-функция. Обычно независимой переменной x является время. Систему называют стационарной или инвариантной во времени, если при выполнении условия Основы теории информации и теории сигналов (39) следует, что Основы теории информации и теории сигналов, где c - произвольный сдвиг. Импульсная характеристика инвариантной во времени системы с учетом (38), очевидно, подчиняется соотношению Основы теории информации и теории сигналов. Входной сигнал можно представить последовательностью дельта-функций: Основы теории информации и теории сигналов, (40) где Основы теории информации и теории сигналов. Сигнал на выходе системы из (38) – (40) определяется выражением Основы теории информации и теории сигналов. В результате выходной сигнал определяется интегралом свёртки Основы теории информации и теории сигналов. (41) Пусть существует преобразование Фурье сигнала Основы теории информации и теории сигналов и импульсной характеристики системы Основы теории информации и теории сигналов.


    Используя свойства преобразования Фурье, можно доказать теорему о свёртке (30): Основы теории информации и теории сигналов. Поскольку Основы теории информации и теории сигналов, то в спектральной области Основы теории информации и теории сигналов. (42) Функция Основы теории информации и теории сигналов (43) называется частотной характеристикой системы. Детерминированные и стохастические сигналы Преобразование Фурье (21) содержит полную информацию о сигнале s(x) в частотном представлении. Если сигнал s(x) является реализацией случайного процесса {s(x)}, то результат преобразования (21) будет изменяться от сигнала к сигналу (“от опыта к опыту”). Неизменной характеристикой ансамбля реализаций {s(x)} стационарного эргодического случайного процесса является спектральная плотность Основы теории информации и теории сигналов (44) где угловые скобки обозначают усреднение по ансамблю реализаций (индексу k). Спектральная плотность характеризует значение среднего квадрата процесса: площадь под графиком спектральной плотности на произвольном частотном интервале Основы теории информации и теории сигналов равна среднему квадрату процесса в этой полосе частот. Наряду с понятием спектральной плотности часто используют соответствующее понятие энергетического спектра. Спектральная плотность стационарного эргодического случайного процесса связана с корреляционной функцией Основы теории информации и теории сигналовэтого процесса преобразованием Фурье: Основы теории информации и теории сигналов (45) где Основы теории информации и теории сигналов (46) Соотношение (45) носит название теоремы Винера-Хинчина. Поскольку автокорреляционная функция (46) является чётной функцией, спектральная плотность (45) является действительной чётной функцией. Таблица 1. Основные величины и типичные единицы их измерения
    Величина Обозначение Единица измерения
    1. Сигнал s(x) В (Вольт)
    2. Амплитудный спектр (АС) Основы теории информации и теории сигналов Основы теории информации и теории сигналов
    3. Квадрат модуля АС Основы теории информации и теории сигналов Основы теории информации и теории сигналов
    4. Спектральная плотность Основы теории информации и теории сигналов Основы теории информации и теории сигналов
    5. Корреляционная функция Основы теории информации и теории сигналов Основы теории информации и теории сигналов
    1.6. Принципы дискретизации непрерывных сигналов
    Дискретизация узкополосных сигналов
    Влияние формы элемента дискретизации
    Пусть функция s(x) определяет исходный непрерывный сигнал. Операция дискретизации заключается в выполнении преобразования вида Основы теории информации и теории сигналов где в простейшем случае апертурная функция элемента дискретизацииh(x) имеет вид Основы теории информации и теории сигналов (47) 2b – ширина элемента дискретизации, Основы теории информации и теории сигналов –функция дискретизации, D x – шаг дискретизации, Основы теории информации и теории сигналов – нормирующий множитель, такой, что площадь под графиком d(x) равна единице. Вид функций h(x) и d(x) иллюстрируются на рис. 1.8. Основы теории информации и теории сигналов Рис. 1.8.


    Прямоугольная функция элемента дискретизации (а)

    и функция дискретизации (б) Сигнал s(x) можно представить последовательностью импульсов протяженностью Основы теории информации и теории сигналов имеющих амплитуды, равные значениям сигнала в точках Основы теории информации и теории сигналов. Тогда получим ступенчатую функцию, показанную на рис. 1.9, а именно Основы теории информации и теории сигналов (48) Основы теории информации и теории сигналов Рис. 1.9. Ступенчатая аппроксимация непрерывного сигнала После перехода к пределу при Основы теории информации и теории сигналов получим Основы теории информации и теории сигналов (49) Такое преобразование является операцией свертки, которая имеет следующие важные свойства:
  • дистрибутивность
  • Основы теории информации и теории сигналов
  • коммутативность
  • Основы теории информации и теории сигналов
  • ассоциативность
  • Основы теории информации и теории сигналов Подчеркнем, что при условии существования интеграла (49) операция свертки не вносит ограничений на вид апертурной функции элемента дискретизации h(x). Процесс дискретизации удобно рассматривать в частотном представлении, получаемом в результате преобразования Фурье исходного сигнала. Функция дискретизации определяется в частотной области следующим выражением: Основы теории информации и теории сигналов (50) гдеОсновы теории информации и теории сигналов обозначает операцию преобразования Фурье, Основы теории информации и теории сигналов. Вид функции D(u) показан на рис. 1.10. Таким образом, процесс выборки дискретных значений сигнала вызывает появление спектральных порядков Основы теории информации и теории сигналов Основы теории информации и теории сигналов Рис. 1.10. Функция дискретизации и её частотное представление Дискретизованный сигнал имеет вид произведения двух функций, поэтому, согласно теореме о свертке, его спектр равен свертке спектров:Основы теории информации и теории сигналов. Поскольку с учетом (50) и свойств частотной симметрии преобразования Фурье (см. разд 1.5) можно записать, что Основы теории информации и теории сигналов, спектр дискретизованного сигнала представляет собой спектр исходного сигнала, периодически повторенного (перенесенного) по частотной оси с шагом Основы теории информации и теории сигналов, как это иллюстрируется на рис. 1.11, включая диапазон отрицательных частот. Теорема дискретизации формулируется следующим образом: Для того, чтобы спектр исходного сигнала в области частот Основы теории информации и теории сигналов не искажался в процессе дискретизации, необходимо и достаточно выполнение неравенства Основы теории информации и теории сигналов, где Основы теории информации и теории сигналов – наибольшая частота в спектре синала. Спектр сигнала, очевидно, можно выразить в форме Основы теории информации и теории сигналов (51) Выделим из этого спектра частотный интервал Основы теории информации и теории сигналов и выполним обратное преобразование Фурье.


    В результате получим Основы теории информации и теории сигналов (52) Отсюда следует теорема Шеннона: если для частоты дискретизации Основы теории информации и теории сигналов справедливо неравенство Основы теории информации и теории сигналов то сигнал s(x) восстанавливается однозначно по его дискретным значениям Основы теории информации и теории сигналов Основы теории информации и теории сигналов Рис. 1.11. Формирование спектра при дискретизации сигнала Функция Основы теории информации и теории сигналов называется интерполяционной функцией Шеннона. Дискретизация узкополосных сигналов Модель типичного узкополосного сигнала имеет вид Основы теории информации и теории сигналов (53) гдеОсновы теории информации и теории сигналов – фоновая составляющая, Основы теории информации и теории сигналов – огибающая, изменяющиеся медленно по сравнению с периодом Основы теории информации и теории сигналовe – начальная фаза в точке x = 0, Основы теории информации и теории сигналов – частота, n(x) – аддитивный шум. В результате дискретизации получаем сигнал Основы теории информации и теории сигналов при этом спектр сигнала определяется выражением Основы теории информации и теории сигналов (54) Здесь N(u) обозначает амплитудный спектр аддитивного шума, H(u) – преобразование Фурье апертурной функции элемента дискретизации. Для функции вида (47) прямоугольной формы и Основы теории информации и теории сигналов нулевые значения H(u) имеют место на частотах Основы теории информации и теории сигналов. Спектр дискретизованного сигнала имеет вид, показанный на рис. 1.12. При обработке спектра обычно выделяют составляющую Основы теории информации и теории сигналов Основы теории информации и теории сигналов Рис. 1.12. Формирование спектра при дискретизации узкополосного сигнала Рассмотрим методику выбора шага дискретизации узкополосного сигнала. Если частота Основы теории информации и теории сигналовгармонической составляющей априорно известна, то шаг дискретизации Dx определяется согласно теореме дискретизации, а именно, нужно выполнить условие Основы теории информации и теории сигналов, т.е. Основы теории информации и теории сигналов. Таким образом, шаг дискретизации должен быть меньше половины периода гармонического сигнала. Если сигнал s(x) не является строго гармоническим и имеет протяженный спектр с граничной частотой Основы теории информации и теории сигналов, то выбор шага дискретизации определяется по теореме дискретизации: Основы теории информации и теории сигналов. Для уменьшения влияния спектра шума, попадающего из соседних спектральных порядков (рис. 1.12), нужно настолько уменьшить шаг дискретизации, чтобы он не превышал значения Основы теории информации и теории сигналов, где Основы теории информации и теории сигналов – составляющая шума с наибольшей частотой. Следует иметь в виду, что вследствие стохастического характера шума можно строго определить его спектр мощности, но не амплитудный спектр.


    Поэтому результат преобразования Фурье шума может существенно изменяться от реализации к реализации. Некоррелированный шум имеет спектр бесконечной протяженности. Поэтому перед дискретизацией сигнала необходимо выполнить низкочастотную фильтрацию для получения “окрашенного” шума с граничной частотой Основы теории информации и теории сигналов. Влияние формы элемента дискретизации Операция дискретизации определяется формулой Основы теории информации и теории сигналов Выше был рассмотрен случай ступенчатой аппроксимации нулевого порядка, как это показано на рис. 1.9. Функция h(x), вообще говоря, может иметь произвольную форму. Однако в любом случае нужно иметь в виду, что форма и протяженность функции h(x) влияют на спектр сигнала за счет умножения спектра этого сигнала на функцию Основы теории информации и теории сигналов (рис. 1.12). Приведем простой пример. Пусть Основы теории информации и теории сигналов Соответствующая функция в спектральной области будет равна Основы теории информации и теории сигналов В этом несложно убедиться непосредственным интегрированием функции косинуса: Основы теории информации и теории сигналов Поэтому составляющие спектра сигнала при u > 0 будут ослаблены вплоть до полного подавления на частоте Основы теории информации и теории сигналов (рис. 1.12). Таким образом, можно сделать следующие выводы. Влияние размера элемента дискретизации на спектральную составляющую с частотой u тем меньше, чем меньше отношение Основы теории информации и теории сигналов, где Основы теории информации и теории сигналов – период этой составляющей. Во избежание энергетических потерь при дискретизации непрерывного сигнала уменьшение размера элемента дискретизации должно сопровождаться соответствующим повышением частоты дискретизации.



    Свойства обобщенных функций позволяют использовать

    Приложение
    Сведения из теории обобщенных функций
    Свойства обобщенных функций позволяют использовать методы дифференциального и интегрального исчисления применительно к функциям, не обладающим свойством непрерывности.
    К обобщенным функциям принято относить прежде всего дельта-функцию Дирака и ступенчатую функцию Хевисайда.
    Дельта-функция
    Определение:
    Свойства обобщенных функций позволяют использовать (1a)
    Свойства обобщенных функций позволяют использовать (1б)
    Вариант определения дельта-функции с переменным параметром Свойства обобщенных функций позволяют использовать :
    Свойства обобщенных функций позволяют использовать
    где
    Свойства обобщенных функций позволяют использовать . (2)
    Предел функции (2) при Свойства обобщенных функций позволяют использовать существует не при всех значениях х, однако всегда существует предел
    Свойства обобщенных функций позволяют использовать .
    Любая операция над дельта-функцией подразумевает операцию над функцией вида Свойства обобщенных функций позволяют использовать с последующим нахождением предела при Свойства обобщенных функций позволяют использовать в конце вычислений.
    Свойства дельта-функции
  • “Селектирующее” свойство выражается в форме Свойства обобщенных функций позволяют использовать (3)

  • где f(x) – любая непрерывная функция. Это легко доказать, приняв Свойства обобщенных функций позволяют использовать
    Подбором значения m в (2), можно уменьшить погрешность замены f(x) на f(a) до требуемого любого малого значения. Интегрирование достаточно выполнить лишь в окрестности точки a, поэтому символически записывают следующее соотношение:
    Свойства обобщенных функций позволяют использовать
    ПриСвойства обобщенных функций позволяют использовать последняя запись сводится к соотношению Свойства обобщенных функций позволяют использовать
  • Свойство четности:

  • Свойства обобщенных функций позволяют использовать (4)
  • Изменение масштаба:

  • Свойства обобщенных функций позволяют использовать (5)
  • Свертка двух дельта-функций определяется как Свойства обобщенных функций позволяют использовать (6)
  • Дифференцирование

  • Используем “аппроксимирующие” функции вида (2) и запишем
    Свойства обобщенных функций позволяют использовать
    Переход к пределу при Свойства обобщенных функций позволяют использовать приводит к соотношению
    Свойства обобщенных функций позволяют использовать
    В общем случае производной n-го порядка
    Свойства обобщенных функций позволяют использовать (7)
    Свойства производных:
    Свойства обобщенных функций позволяют использовать (8)
    Свойства обобщенных функций позволяют использовать (9)
    Определение дельта-функции через интеграл Фурье
    Выразим значение функции f(x) в точке a в форме
    Свойства обобщенных функций позволяют использовать
    Обозначив
    Свойства обобщенных функций позволяют использовать
    и изменяя порядок интегрирования, с учетом четности дельта-функции получаем
    Свойства обобщенных функций позволяют использовать
    где Свойства обобщенных функций позволяют использовать
    Последний интеграл следует понимать в смысле
    Свойства обобщенных функций позволяют использовать
    При f(x)=1, Свойства обобщенных функций позволяют использовать поэтому дельта-функцию можно определить как
    Свойства обобщенных функций позволяют использовать (10)
    т.е. как Фурье-образ от единицы.
    Обратное соотношение выражается в виде
    Свойства обобщенных функций позволяют использовать (11)
    Единичная ступенчатая функция
    Определение ступенчатой функции имеет вид
    Свойства обобщенных функций позволяют использовать
    Можно показать, что справедливо соотношение
    Свойства обобщенных функций позволяют использовать
    Селектирующее свойство выражается в форме
    Свойства обобщенных функций позволяют использовать (14)
    Свойства обобщенных функций позволяют использовать
    Примеры дифференцирования разрывных функций


  • Пусть функция f(x) задана соотношением

  • Свойства обобщенных функций позволяют использовать
    Тогда Свойства обобщенных функций позволяют использовать
  • Знаковая функция sgn(x) по определению есть

  • Свойства обобщенных функций позволяют использовать
    или
    Свойства обобщенных функций позволяют использовать
    Эту функцию можно выразить через обобщенные функции, а именно
    Свойства обобщенных функций позволяют использовать
  • Производные функции Свойства обобщенных функций позволяют использовать можно выразить как

  • Свойства обобщенных функций позволяют использовать
    или Свойства обобщенных функций позволяют использовать
    При использовании дельта-функции можно записать
    Свойства обобщенных функций позволяют использовать
    т.е. излом графика дает вторую производную (кривизну) в виде функции Свойства обобщенных функций позволяют использовать .

    

        Бизнес: Предпринимательство - Малый бизнес - Управление