НЕКОММЕРЧЕСКОЕ АКЦИОНЕРНОЕ ОБЩЕСТВО

АЛМАТИНСКИИ ИНСТИТУТ ЭНЕРГЕТИКИ И СВЯЗИ

Кафедра автоматической электросвязи

 

ТЕОРИЯ ИНФОРМАЦИИ

Конспект лекций

(для студентов  всех форм   обучения специальности 050704

Вычислительная техника и программное обеспечение)

 

 

 

Алматы 2008 

СОСТАВИТЕЛИ: К.С. Чежимбаева, Д.А. Абиров Теория информации. Конспект лекций для студентов всех форм обучения специальности 050704 - Вычислительная техника и программное обеспечение - Алматы: АИЭС, 2008. - 80 стр. 

 Конспект    лекций    посвящен    вопросам    теории    информации    и необходим при изучении дисциплин, связанных с этой тематикой. Конспект лекций предназначен для студентов всех форм обучения  по  специальности 050704 - Вычислительная техника и программное обеспечение                                                  

Введение 

Большинство изданий по  дисциплине теории информации написано на высоком математическом уровне. В то же время теория информации – наука прикладная, она служит теоретическим фундаментом техники связи, радиолокации, техники обработки информации. Её результаты должны находить практическое применение. Для этого нужно чтобы инженеры – проектировщики систем могли понять и оценить результаты теории.

Информационная наука находит применение в самых разнообразных областях. В связи с этим нет всеобщего для всех наук классического определения понятия “информация”. В каждом направлении используют определение ее отдельных составляющих, наиболее важных для данной науки. Для теории систем, информация выступает как мера организации системы. Для теории познания важно, что информация изменяет наши знания. Под информацией понимают не все получаемые сведения, а только те, которые еще не известны и являются новыми для получателя. В этом случае информация является мерой устранения неопределенности. Для машинной обработки информация должна быть представлена в виде сообщений на определенном языке. Специалистам связи важно, что информация - это сведение, являющиеся объектом передачи и обработки.

Приступая к систематическому изучению теории информации, следует по возможности уточнить смысл понятий «сигнал» и «сообщение».

Сигнал (лат.Signum-знак)- процесс изменения во времени физического состояния какого-либо  объекта, служащий для отображения регистраций или передачи SMS.

Сообщение- форма представления информации. Это условные знаки, с помощью которых мы получаем те или другие сведения.

Канал электросвязи – это совокупность технических средств и среды распространения сигналов, обеспечивающая при подключении абонентских устройств передачу сообщений от источника к получателю.

                     Рисунок 1.1 - Обобщенная структурная схема канал связи

 

Введение способа измерения количества информации К. Шенноном в конце 40-х годов привело к формированию самостоятельного научного направления под названием “Теория информации”. Параллельно на основе работ В.А. Котельникова развивалось другое научное направление - теория помехоустойчивости.

Теория информации решала задачу максимизации средней скорости передачи. Главной задачей теории помехоустойчивости является отыскание таких способов передачи и приема, при которых обеспечивалась бы наивысшая достоверность принятого сообщения. Обе задачи являются, по сути различными сторонами одного и того же процесса обработки информации при ее передаче и приеме.

В 1946 и 1956 гг. В.А. Котельниковом были опубликованы работы по оптимальным методам приема и потенциальной помехоустойчивости. Использование результатов этих работ дало возможность судить  о том, насколько данная конкретная аппаратура близка к идеальной по своей способности выделять сигнал из смеси его с помехами.

Первой серьезной работой по теории передачи информации следует считать труд Р.Хартли “Передача информации”, изданный в 1928г. Немало важное значение для теории передачи дискретных сигналов имела работа Найквиста “Некоторые факторы, воздействующие на скорость телеграфирования” (1924г.).

Существенным шагом в становлении новой теории передачи информации явилась “Математическая теория связи” К.Шеннона. В этой работе доказана теорема о пропускной способности канала связи. Оказалось, что при скоростях передачи, меньших пропускной способности канала, существуют методы передачи (кодирования) и приема (декодирования), позволяющие восстановить передаваемый сигнал со сколь угодно малой вероятностью ошибки, несмотря на наличие помех.

Работы В.А. Котельникова и К. Шеннона создали фундамент теории передачи сигналов, которая получила дальнейшее развитие благодаря работам многих ученых по отдельным ее разделам.

Данные о дисциплине: Название «Теория информации».

По данной дисциплине проводятся лекционные занятия, лабораторные работы, кроме того, предполагается выполнение курсовой работы, где собирается схема с применением пакета «System View» для моделирования телекоммуникационных систем, кодирующего и декодирующего устройства циклического кода, проведение самостоятельных работ с целью углубления общих знаний теории.

 

Кредиты

Курс

Семестр

Лекции

Лаборат. работы

РГР

Экзамен

2

2

4

1.5 (43 час.)

0.5 (17 час.)

4

4

 

1 Лекция 1. Сигнал, информация  и сообщение.

 

Цель лекции: ознакомление с основными понятиями информации, сообщении, сигналов и энтропией информации.

Содержание:

а) сообщение как случайный процесс;

б) формы представления детерминированных сигналов;

в) мера Хартли. Количественная оценка информации;

г) энтропия как мера неопределенности выбора;

д) связь энтропии Шеннона с энтропией Больцмана.

 

1.1 Сообщение как случайный процесс

 

Главное отличие случайных  сигналов от детерминированных состоит в том, что после наблюдения их на конечном отрезке времени tн нельзя предсказать их будущее. Все случайные сигналы являются непредсказуемыми. Таким образом, для случайных сигналов нельзя подобрать математическую формулу, по которому можно было бы рассчитать их мгновенные значения. Изменением основных закономерностей случайных сигналов занимается теория вероятностей, нахождение таких характеристик случайных явлений, которые были бы неслучайными и позволяли проводить математические расчеты случайных явлений. Исследование осуществляется статистическими методами.

Случайный процесс Х(t)- это такая функция времени t, значение которой при любом фиксированном значении аргумента t является случайной величиной. Из этого определения следует, что если будет производиться наблюдение изменения во времени любой случайной величины Х, то это уже будет случайный процесс Х(t). Гармонический сигнал ,у которого  хотя бы один из параметров  -случайная величина, также является случайным процессом.

Пусть ξ(t) есть случайный процесс. В некоторый фиксированный момент времени t1 различные реализации процесса будут иметь различные значения ξ1(t1), ξ2(t1),…, ξn(t1). Значение ξ(t1) является случайной величиной.

Одномерная плотность вероятности случайного процесса k(t)} для

                 t= t1: .                                                          (1.1)

Двумерная плотность вероятности случайного процесса:     

                .                                                (1.2)

Произведение  выражает вероятность того, что в момент времени t1  функция ξ(t) находится в интервале между х1 и , а в момент времени t- в интервале между х2 и . Аналогично определяются трехмерный, четырехмерный и т.д. законы распределения.    Наиболее полной характеристикой случайного процесса является n – мерный закон распределения, т.е. распределение значения  ξ(t) для n произвольно выбранных  моментов времени.

                   .                          (1.3)

1.2. Формы представления детерминированных сигналов.

1.2.1. Временная форма

В зависимости от структуры информационных параметров, сигналы могут быть:

 - непрерывные (аналоговые)

 - дискретные

 - дискретные-непрерывные

.

      1.3  Мера Хартли. Количественная оценка информации

        Энтропия как мера неопределенности выбора

 

Дискретный источник – в некоторый момент времени случайным образом может принять одно из конечного множества возможных состояний U1,…,Un, т.к. одни состояния могут быть чаще, а другие реже, то       информация характеризуется ансамблем U, т.е. полной совокупностью:

                               причем         (1.4)

Необходимо ввести меру выбора.

Условия ввода меры:

1)                монотонность возрастания с увеличением возможностей выбора

можно было бы взять число состояний. – Нельзя! т.к. при N=1 ® выбора нет. -  не удовлетворяет требованиям аддитивности.

2)                аддитивность: информация содержащаяся в 2-х источниках должна быть равна сумме информации в каждом из них: IS=I1+I2 ,

с другой стороны: IS=f(M×N)  т.е. f(MN) = f(M) + f(N).

 Эти условия можно выполнить, если

Логарифмическая мера информации была предложена американским ученым Хартли в 1928 г. Если основание log=log2, то имеем единицу информации – бит (binary digit).

К сожалению, мера Хартли не учитывает вероятностные характеристики информации. Допустим:  - источник ® p1=1, p2=0

                  - источник ® p1=p2=0,5

В 1-ом случае нет - вероятности и исход – заранее известен. т.о. получение сообщения от 1-го источника информации не прибавляет.

Во 2-ом случае – исход заранее неизвестен. Поэтому информация полученная от 2-го источника  ® max, т.е. вероятностная мера информации должна удовлетворять следующим условиям:

-    быть непрерывной функцией вероятности состояния источника p1, p2,…, pN (Spi=1);

-    max ее (меры) значения должен достигаться при равенстве вероятностей;

-    мера информации должна зависеть только от функции распределения СВ и не зависеть от ее конкретных значений.

Вероятностная мера информации как мера неограниченности выбора состояния из ансамбля была предложена Клодом Шенноном:

                                            - энтропия              (1.5)

В данной системе с=1  , тогда:

                                                                                                                                                                                                                                                                                             

                       (1.6)                                                                                                                                                                                                                                                                                             
1.4 Связь энтропии Шеннона с энтропией Больцмана.

 

Рассмотрим взаимосвязь меры Шеннона с мерой Хартли.          Если в ИС имеется N состояний и они p вероятны, то

                               .                              (1.7)

В случае разности вероятностных состояний информация по Шеннону < информации по Хартли. Так для двух равновероятных событий по Хартли:

I=log 2 = 1 бит.

по ШеннонуH=-(p1log2p1+p2log p2H=1 бит  Max достигается при p1=p2=0,5  

       Рис 1.1.

 

2 Лекция 2. Дискретный канал без помех

 

Цель лекции: ознакомление с дискретным каналом передачи информации без помех.

Содержание:

а) понятие информации;

б) дискретный канал передачи информации без помех;

в) пропускная способность канала;

г) теоремы для пропускной способности канала без помех;

д) математическая модель дискретного канала без помех;

2.1. Понятие информации         

      

Термином “информация” с древнейших времен обозначали процесс разъяснения, изложения, истолкования. Позднее так называли и сами сведения и их передачу в любом виде.

Информация – не только сведения о свойствах объектов и процессов, но и обмен этими сведениями между людьми, человеком и автоматом, автоматом и автоматом, обмен сигналами в животном и растительном мире, передача признаков от клетки к клетке, от организма к организму. Под информацией нужно понимать не сами объекты и процессы, или их свойства, а представляющие характеристики предметов и процессов, их отражение или отображение в виде чисел, формул, описаний, чертежей, символов, образов и других абстрактных характеристик.

Под информацией понимают сведения о каком-либо явлении, событии, объекте. Информация, выраженная по определенной форме, представляет собой сообщение, иначе говоря, сообщение это то, что подлежит передаче, а сигнал является материальным носителем сообщения. В широком смысле информации – это новые сведения об окружающем нас мире, который мы получаем в результате взаимодействия с ним. Информация - одна  из важнейших категорий естествознания.

Можно выделить 3 основных вида информации в обществе: личную, специальную и массовую. Личная информация касается тех или иных событий в личной жизни человека. К специальной информации относятся научно-техническая, деловая, производственная, экономическая и др. Массовая информация предназначена для большой группы людей и распространяется через средства массовой информации: газеты, журналы, радио, телевидение.

Информация в любой форме является объектом хранения, передачи и преобразования. В теории и технике связи в первую очередь интересуются свойствами информации при её передачи и под информацией понимают совокупность сведений о явлениях, событиях, фактах, заранее не известных получателю.

 

2.2 Дискретный канал передачи информации без помех

Отличительной особенностью рассмотренных каналов без помех является то, что при выполнении условия теоремы Шеннона количество принятой информации на выходе канала всегда равно количеству информации, переданной от источника сообщений. При этом, если на вход канала поступил сигнал ui, то на выходе возникает сигнал I, вполне однозначно определяющий переданный сигнал ui. Количество информации, прошедшее по каналу без помех в случае передачи ui и приема I, равно количеству информации, содержащейся в сигнале ui:

                               J(ui ,i)=log1/P(ui) .                                           (2.1)

Здесь величина вероятности P(ui) характеризует ту неопределенность в отношении сигнала ui которая существовала до его передачи. После приема I в силу однозначного соответствия между ui и I неопределенность полностью устраняется.

 

2.3 Пропускная способность канала

 

Максимально возможная скорость передачи информации по каналу связи при фиксированных ограничениях называются пропускной способностью канала:     C= max R= max H(u)/τ (дв.ед./сек).                        (2.2)

Пропускная способность канала характеризует его предельные возможности в отношении передачи среднего количества информации за единицу времени. Максимум скорости R в выражении (2.9) ищется по всем  возможным ансамблям сигналов u.

Определим пропускную способность канала, в котором существуют 2 ограничения: число используемых сигналов не должно превышать m, а длительность их не может быть меньше τ, сек. Так как Н(u) и τ не зависимый, то согласно выражению (2.9) следует искать раздельно максимум Н(u) и минимум τ. Тогда:     

                                      С= max H(u)/min τ=( log m)/τ .                            (2.3)

Для двоичных сигналов m=2 и пропускная способность

                                             ,                                             (2.4)

т.е. совпадает со скоростью телеграфирования в бодах. При передаче информации простейшими двоичными сигналами – телеграфными посылками – необходимая полоса пропускания канала зависит от частоты манипуляции Fm=1/2τ, которая по определению равна частоте первой гармонике спектра сигнала, представляющего собой периодическую последовательность посылок и пауз. Очевидно, минимальная полоса пропускания канала, при которой ещё возможна передача сигналов, F= Fm.  Отсюда максимальная скорость передачи двоичных сигналов по каналу без помех равна:

C=V=2 Fm. (Предел Найквиста).

Понятие пропускной способности применима не только по всему каналу в целом, но и к отдельным его звеньям. Существенным здесь является то, что пропускная способность C какого- либо звена не превышает пропускной способности C’’ второго звена, если оно расположено внутри первого. Соотношение C’≤ C’’ обусловлено возможностью появления дополнительных ограничений, накладываемых на участок канала при его расширении и снижающих пропускную способность.  

 

2.4 Теоремы для пропускной способности канала без помех

 

Для дискретных каналов без помех Шенноном была доказана следующая теорема: если производительность источника RиC, где ξ- сколь угодно малая величина, то всегда существует способ кодирования, позволяющий передавать по каналу все сообщения источника. Передачу всех сообщений при  Rи осуществить невозможно.

Смысл теоремы сводится к тому, что как бы не была велика избыточность источника, все его сообщения могут быть переданы по каналу, если Rи С-ξ . Обратное утверждение теоремы легко доказывается от противного. Допустим, Rи, но для передачи всех сообщений источника по каналу необходимо, чтобы скорость передачи информации R была не меньше Rи. Тогда имеем RRи, что невозможно, так как по определению пропускная способность С=Rmax  .

Для рационального использования пропускной способности канала необходимо применять соответствующие способы кодирования сообщений. Статистическим или оптимальным называется кодирование, при котором наилучшим образом используется пропускная способность канала без помех. При оптимальном кодировании  фактическая скорость передачи по каналу R приближается к пропускной способности С, что достигается путем согласования источника с каналом. Сообщения источника кодируются таким образом, чтобы они в наибольшей степени соответствовали ограничениям, которые накладываются на сигналы, передаваемые по каналу связи. Поэтому структура оптимального кода зависит как от статистических характеристик источника, так и от особенностей канала.

Рассмотрим основные принципы оптимального кодирования на примере источника независимых сообщений, который необходимо согласовать с двоичным каналом без помех. При этих условиях процесс кодирования заключается в преобразовании сообщений источника в двоичные кодовые комбинации.

Энтропия кодовых комбинаций равна энтропии источника:

                                            .                                              (2.5)

Скорость передачи информации в канале:

                                            .                               (2.6)

Здесь числитель определяется исключительно статистическими свойствами источника, а величина τ0 – характеристиками канала. Можно закодировать сообщения, чтобы скорость передачи R (2.6)  достигла своего максимального значения, равного пропускной  способности  двоичного канала С=1/ τ0, если выполняется условие:

                                        .                                      (2.7)

Одним из кодов, удовлетворяющих условию (2.7), является код Шеннона-Фано.

 

2.5 Математическая модель дискретного канала без помех

 

Постоянный симметричный канал без памяти определяется как дискретный канал, в котором каждый переданный кодовый символ может быть принят ошибочно с фиксированной вероятностью р и правильно с вероятностью 1-р, причем в случае ошибки вместо переданного символа bi может быть рваной вероятностью принят любой другой символ. Таким образом, вероятность того, что принят символ bj если был передан bi,

                                      .                                    (2.8)

Вероятность любого n - мерного вектора ошибки в таком канале

                                                                         (2.9)

где  l- число ненулевых символов в векторе ошибки. Вероятность того что произошло l ошибок, расположенных как угодно на протяжении последовательности длины n, определяется формулой Бернулли

                                                                          (2.10)

где  - биноминальный коэффициент, равный числу различных сочетаний l ошибок в блоке длиной n.

Эту модель также называют биноминальным каналом. Она удовлетворительно описывает канал, возникающий при определенном выборе модема, если в непрерывном канале отсутствуют замирания, а аддитивный шум белый (или по крайней мере квазибелый). Нетрудно видеть, что вероятность появления ошибок в двоичной кодовой комбинации длины  n (кратному l  1) согласно модели (2.10) при р <<1

                         .                    (2.11)

Вероятность переходов в двоичном симметричном канале схематически показана в виде графа на рисунке 2.2.

 

 


       p

                                          p                                

            Рисунок 2.2

 

3 Лекция 3. Дискретный канал с помехами

 

Цель лекции: ознакомление c понятием помех

Содержание:

а) понятие помех;

б) виды помех;

в) искажения;

г) борьба с помехами. 

3.1 Понятие помехи

 

Помеха – это любое воздействие, накладывающееся на полезный сигнал и затрудняющее его прием. Помехи весьма разнообразны как по своему происхождению, так и по физическим свойствам.

В проводных каналах связи основным видом помех являются импульсные шумы и прерывная связь. Появление импульсных помех часто связано с автоматической коммутацией и с перекрестными наводками. Прерывание связи есть явление, при котором сигнал в линии резко затухает или совсем исчезает.

Практически в любом диапазоне частот имеют место внутренние шумы аппаратуры, обусловленные хаотическим движением носителей заряда в усилительных приборах, сопротивлениях и других элементах аппаратуры. Этот вид помех особенно сказывается в диапазоне ультракоротких волн. В этом диапазоне имеют значение и космические помехи, связанные с электромагнитными процессами, происходящими на Солнце, звездах и других внеземных объектах.

Классификацию помех можно провести по следующим признакам:

- по происхождению (месту возникновения);

- по физическим свойствам;

- по характеру воздействия на сигнал.

3.2. Виды помех

 

К помехам по происхождению в первую очередь относятся внутренние шумы аппаратуры (тепловые шумы) обусловленные хаотическим движением носителей заряда в усилительных приборах, сопротивлениях и других элементах аппаратуры.   Случайное тепловое движение носителей заряда в любом проводнике вызывает случайную разность потенциалов на его концах. Среднее значение напряжения равно нулю, а переменная составляющая проявляется как шум. Квадрат эффективного напряжения теплового шума определяется известной формулой Найквиста

                                                                                                (3.1)

где Т- абсолютная температура, которую имеет сопротивление R;                

 F- полоса частот; k=1,37*10 (-23) Вт.сек/град- постоянная Больцмана.

 К помехам по происхождению, во вторую очередь, относятся помехи от посторонних источников, находящихся вне каналов связи: 

- атмосферные помехи (громовые разряды, полярное сияние, и др.), обусловленные электрическими процессами в атмосфере;

- индустриальные помехи, возникающие в электрических цепях электроустановок (электротранспорт, электрические двигатели, системы зажигания двигателей, медицинские установки и другие.);

- помехи от посторонних станций и каналов, возникающих от различных нарушений режима их работы и свойств каналов;

- космические помехи, связанные с электромагнитными процессами, происходящими на Солнце, звездах, галактиках и других внеземных объектах.

По физическим свойствам помех различают:

- Флуктуационные помехи;

- Сосредоточеные  помехи.

Флуктуационные помехи. Среди аддитивных помех особое место занимает флуктационная помеха, которая является случайным процессом с нормальным распределением (гауссов процесс). Этот вид помех практически имеет место во всех реальных каналах.

Электрическую структуру флуктуационной помехи можно представить себе как последовательность бесконечно коротких импульсов, имеющих случайную амплитуду и следующих друг за другом через случайные промежутки времени. При этом импульсы появляются один за другим настолько часто, что переходные явления в приемнике от отдельных импульсов накладываются, образуя случайный непрерывный процесс.

Так, источником шума в электрических цепях могут быть флуктуации тока, обусловленные дискретной природой носителей заряда (электронов, ионов). Дискретная природа электрического тока проявляется в электронных лампах и полупроводниковых приборах в виде дробового эффекта.

Наиболее распространенной причиной шума являются флуктуации, обусловленные тепловым движением.

Длительность импульсов, составляющих флуктуационную помеху, очень мала, поэтому спектральная плотность помехи постоянна вплоть до очень высоких частот.

К сосредоточенным по времени (импульсным) помехам относят помехи в виде одиночных импульсов, следующих один за другим через такие большие промежутки времени, что переходные явления в радиоприемнике от одного импульса успевают практически затухнуть к моменту прихода следующего импульса.

Сосредоточенные по спектру помехи. К этому виду помех принято относить сигналы посторонних радиостанций, излучения генераторов высокой частоты различного назначения и т. п.  В отличие от флуктационных и импульсных помех, спектр которых заполняет полосу частот приёмника, ширина спектра сосредоточенной помехи в большинстве случаев меньше полосы пропускания приёмника. В диапазоне коротких волн этот вид помех является основным, определяющим помехоустойчивость связи.     

По характеру воздействия  на сигнал различают:

- аддитивные помехи;

- мультипликативные помехи.

Аддитивной называется помеха, мгновенные значения которой  складываются с мгновенными значениями сигнала. Мешающее воздействие аддитивной помехи определяется суммированием с полезным сигналом. Аддитивные помехи воздействует на приемное устройство независимо от сигнала и имеют место даже тогда, когда на входе приемника отсутствует сигнал.  

Мультипликативной называется помеха, мгновенные значения которой перемножаются с мгновенными значениями сигнала. Мешающее действие мультипликативных помех проявляется в виде изменения параметров полезного сигнала, в основном амплитуды. В реальных каналах электросвязи обычно имеют место не одна, а совокупность помех.

Под искажениями  понимают такие изменения форм сигнала, которые обусловлены известными свойствами цепей и устройств, по которым проходит сигнал. Главная причина искажений сигнала – переходные процессы в линии связи, цепях передатчика и приемника. При этом различают искажения: линейные и нелинейные  возникающие в соответствующих линейных и нелинейных цепях. В общем случае искажения отрицательно сказываются на качестве воспроизведения сообщений и не должны превышать установленных значений (норм).

При известных характеристиках канала связи форму сигнала на его выходе всегда можно рассчитать по методике, изложенной  в теории линейных и нелинейных цепей. Дальнейшие изменения формы сигнала можно скомпенсировать корректирующими цепями или просто учесть при последующей обработке в приемнике.   Это уже дело техники.

  ДРУГОЕ ДЕЛО ПОМЕХИ  -  ОНИ заранее не известны и поэтому не могут быть устранены полностью.    

Борьба с помехами  - основная задача теории и техники связи. Любые теоретические и технические решения, о выполнении кодера или декодера, передатчика и приемника системы связи должны приниматься с учетом того, что в линии связи имеются помехи. При всем многообразии методов борьбы с помехами их можно свести к трем направлениям:

      - подавление помех в месте их возникновения. Это достаточно эффективное и широко применяемое мероприятие, но не всегда приемлемо. Ведь существуют источники помех, на которые воздействовать нельзя (грозовые разряды, шумы Солнца и др.);

       - уменьшение помех на путях проникновения в приемник;

  - ослабление влияния помех на принимаемое сообщение в приемнике, демодуляторе, декодере. Именно это направление для нас является предметом изучения.      

 

4 Лекция 4. Дискретный канал передачи информации с помехами

 

Цель лекции: ознакомление с дискретным каналом передачи информации с помехами

Содержание:

а)  дискретный канал передачи информации с помехами;

б) пропускная способность канала с помехами;

в) теоремы для пропускной способности канала с помехами;

д) математическая модель дискретного канала с помехами.

 

4.1 Дискретный канал передачи информации с помехами

 

Иное положение имеет место в каналах, где присутствуют различного рода помехи. Их воздействие на передаваемый сигнал приводит к разрушению и необратимой потере части информации, поступающей от источника сообщения. Поскольку в канале с помехами принятому сигналу I может соответствовать передача одного из нескольких сигналов u,  то после приема I остается некоторая неопределенность в отношении переданного сигнала. Здесь соответствие между u и  носит случайный характер, поэтому степень неопределенности характеризуется условной апостериорной  вероятностью P(ui/i), причем всегда P(ui/i) <1. Количество информации, необходимое для устранения оставшейся неопределенности log 1/P(ui/3i),  очевидно, равно той части информации и определяется как разность:

                 J(ui , i)= log 1/P(ui) – log 1/P(ui/i) = log P(ui/i)/P(ui).   (4.1)

4.2  Пропускная способность канала с помехами

 

Пропускная способность канала с помехами определяется как максимально возможная скорость передачи при заданных ограничениях, накладываемых на передаваемые сигналы: 

                                                 C=Rmax..                                                     (4.2)

Для каналов с сигналами одинаковой длительности, равной τ, пропускная способность

                       ,  (4.3)

где максимум ищется по всем возможным ансамблям сигналов u , Р.

Рассмотрим двоичный канал с помехами без памяти, по которому передаются дискретные сигналы, выбранные из ансамбля, содержащих два независимых сигнала u1 и u2  с априорными вероятностями Р(u1) и Р(u2). На выходе канала образуются сигналы υ1 и υ2 , при правильном приеме отражающие соответственно сигналы u1 и u2. В результате действия помех возможны ошибки, которые характеризуются при передаче u1 условной вероятностью Р(υ2/ u1), при передаче u2  - условной вероятностью Р(υ1/ u2).

Вычислим энтропию сигнала :

                               .           (4.4)

И энтропию шума:

           (4.5)

Будем полагать канал симметричным. Для такого канала вероятности переходов одинаковы: Р(υ2/ u1) = Р(υ1/ u2) = Р, а полная вероятность ошибки

                       (4.6)

Отсюда вытекают соотношения:

                                                           (4.7)

После их подстановки  в   (4.4)    получаем:

                                      .            (4.8)

Для того, чтобы определить полную пропускную способность (4.3.), необходимо максимизировать J(u,v)=H(v)-H(v/u). При заданной вероятности  ошибки, как следует из  (4.8), величина H(v/u) постоянна, а максимум следует искать, изменяя H(v).  Энтропия сигнала H(v), выраженная формулой (4.2), имеет максимальное значение H0(v)=1 в случае  равновероятных сигналов, когда P(v1)= P(v2)=0.5. Подставляя выражения (4.7) u (4.8)  в формулу (4.2) получим  следующее выражение для пропускной способности двоичного симметричного канала:                                  

                                      .                    (4.9)

Рисунок 4.1 - Зависимость пропускной способности двоичного канала от вероятности ошибки Р0

На рисунке 4.1 приведена зависимость С от вероятности ошибки для двоичного канала (4.9). Увеличение Р0  приводит к снижению пропускной способности, которая становится равной нулю при Р0 =0,5. В этом случае в соответствии с (4.7) полностью исчезает какая-либо зависимость между передаваемыми и принятыми сигналами: Р(v1/u1)= Р(v2/u1)=1/2 и  Р(v1/u2)= Р(v2/u2)=1/2. Значение Р0=1/2 для бинарного канала является предельным.

  

4.3  Теоремы для пропускной способности  канала с помехами

 

Для дискретных каналов с помехами Шеннон доказал теорему, имеющую фундаментальное значение в теории передачи информации. Эта теорема может быть сформулирована следующим образом.

Если производительность источника Rи C-ε, где ε- сколь угодно малая величина, то существует способ кодирования, позволяющий передавать все сообщения источника со сколь угодно малой вероятностью ошибки. При  Rи>C такая передача невозможна. Количество типичных  переходов каждой группы:                                   

                                                            МГ=2nH(v/u) .                                           (4.10)

 В общем случае переходы перекрещиваются, т.е. одна и та же последовательность Vj может образоваться в результате передачи одной из нескольких последовательностей U.

Вероятность ошибки декодирования:

                                     .                             (4.11)

МИ число последовательностей, выбранные для переноса    информации;

Рпер – вероятность перекрещивания переходов.

Это оценка вероятности ошибки является грубым приближенным, однако она правильно указывает на характер зависимости РОД от МИ.

Если энтропия источника равна НИ, то:

                                                                                       (4.12)

 .

Скорость передачи информации:

                                                  где  .           (4.13)

При максимальной скорости передачи сообщений по каналу maxR=C  и

                                             .                                           (4.14)

Возможность одновременного установления сколь угодно малой вероятности ошибки декодирования РОД и малой величины ε доказывает справедливость теоремы Шеннона.

Для обеспечения высокой достоверности передачи сообщений необходимо применять коды с избыточностью. Если R=C, то средняя взаимная информация  . Тогда коэффициент избыточности:

                                  .                                   (4.15)

Иными словами, теорема утверждает, что для передачи сообщений со сколь угодно малой вероятностью ошибки декодирования PОД могут быть найдены коды с минимальной избыточностью, равной χ. При передаче бинарных сигналов минимальная избыточность равна:  

                                       .                         (4.16)

4.4 Математическая модель дискретного канала с помехами

 

Простейшей моделью двоичного канала с памятью является Марковская, определяемая матрицей переходных вероятностей

                                                                                   (4.17)

где Р1 – условная вероятность принять (i+1)–й символ ошибочно, если предыдущий принят правильно; 1- Р1 – условная вероятность принять (i+1)–й символ правильно, если предыдущий принят правильно; Р2 - условная вероятность принять (i+1)–й символ ошибочно, если предыдущий принят ошибочно; 1- Р2 – условная вероятность принять (i+1)–й символ правильно, если предыдущий принят ошибочно.

Безусловная вероятность ошибки р должна удовлетворять уравнению . Откуда . Это модель очень проста в использовании, однако она весьма неточно воспроизводит свойства реальных каналов.

Несколько более успешно используется модель Гильберта. Согласно этой модели канал может находиться в двух состояниях S1 и S2. В состоянии S1 ошибок не происходит, в состоянии S2 ошибки возникают независимо с вероятностью p2. Переходы из одного состояния в другое образуют простую Марковскую цепь с матрицей переходов

                                                 (4.18)

где P(S2/S1) –вероятность перехода из состояния S1 в S2; P(S1/S2) - вероятность перехода из состояния S2 в S1. Вероятности нахождения канала в состоянии S1 и S2 соответственно

                ;  .   (4.19)

Безусловная вероятность ошибки

.

При использовании модели Гильберта обычно полагают р2=0,5. Это хорошо согласуется с представлением о канале, в котором на некоторых временных интервалах из-за плохих условий прохождения или действия мощных помех связь пропадает. 

 

5 Лекция 5. Принципы дискретизации и восстановление информации

 

Цель лекции: ознакомление c принципами дискретизации и восстановление информации.

Содержание:

а) представление информации в непрерывном виде;

б) принципы дискретизации и восстановление информации;

          в) критерии качества восстановления. 

5.1 Представление информации в непрерывном виде

 

Сигналы, существующие непрерывно во времени и принимающие любые значения из какого-то интервала, принято называть непрерывными.   

Виды сигналов: Непрерывный сигнал непрерывного времени- наз. сокращенно непрерывными (аналоговыми). Они могут изменяться в произвольный момент принимая любые из непрерывного множества возможных значений. К таким сигналам относиться известная всем синусоида. Непрерывный сигнал дискретного времени – могут принимать произвольные значения, но изменяться только в определенные,  наперед заданные (дискретные) моменты t1,t2,t3

 s                                                             s

 

2

1

 

       t1      t2     t3     t4     t5    t6                                                t1   t2         t3    t4

         а)                                                       б)

 

 

Рисунок 5.1- а) Непрерывный сигнал непрерывного времени

                      б) Непрерывный сигнал дискретного времени

 

5.2 Принципы дискретизации и восстановление информации

 

Под дискретизацией понимается преобразование непрерывных сообщений (сигналов) в дискретные. При этом используется дискретизация по времени и по уровню.

Дискретизация по времени выполняется путем взятия отсчетов функции u(t) в определенные дискретные моменты времени tk. В результате непрерывная функция u(t) заменяется совокупностью мгновенных значений uk={u(tk)}. Обычно моменты отсчетов выбираются на оси времени равномерно, то есть tk =kt. Выбор интервала t производится на основании теоремы Котельникова, согласно которой функция с ограниченным спектром полностью определяется своими значениями, отсчитываемыми через интервалы t=1/2F, где F – ширина спектра. Дискретизация по времени лежит в основе всех видов импульсной модуляции.

В некоторых случаях сообщение может представлять собой функцию не одного, а нескольких переменных. Примером такого сообщения является телевизионное изображение, которое можно представить как функцию u(x,y,t) двух пространственных координат x и y и времени t, где u – яркость изображения. Дискретизация по времени осуществляется с помощью кадровой развертки. Шаг дискретизации t равен числу кадров в секунду. В результате строчной развертки дискретизируется координата у, координата х при этом остается непрерывной. Шаг дискретизации ∆у определяется числом строк развертки. Таким образом, получается функция

                                     .                                   (5.1)

Где  - скорость развертки вдоль строки, i - номер строки, k - номер кадра.

Дискретизация значения функций носит название квантования. Операция квантования сводится к тому, что вместо данного мгновенного значения сообщений u(t) передаются ближайшие значения по установленной шкале дискретных уровней.

Дискретные значения по шкале уровней чаще всего выбираются равномерно: . Само собой разумеется, что при квантовании вносится погрешность, так как истинные значения функций u заменяются округленными значениями uk. Величина этой погрешности   не превосходит половины шага квантования u и может быть сведена до допустимого значения. Погрешность  является случайной функцией и проявляется на выходе как дополнительный шум наложенный на передаваемое сообщение.

Дискретизация одновременно по времени и уровню позволяет непрерывное сообщение преобразовать в дискретное, которое затем может быть кодировано и передано методами дискретной техники. Достоинствами систем связи дискретизации является возможность применения кодирования для повышения помехоустойчивости, удобства обработки сигналов и сопряжения устройств связи с цифровыми вычислительными машинами.

Воспроизведение сигнала посредством выборок  можно производить как на основе ортогональных, так и неортоганальных базисных функций, которые определяют тип аппроксимирующего полинома и принцип приближения: интерполяционный, экстраполяционный, комбинированный.

При неортогональных представлениях сигнала наиболее часто используются степные алгебраические полиномы вида

                                             ,                                        (5.2)

или

                                                                             (5.3)

где aj – действительные коэффициенты.

Если координаты сигнала представлены в виде разности выборок, то при его восстановлении, как правило, сначала проводят вычисление последовательности выборок и уже по ним строят аппроксимирующий полином u*(t).

Выбор системы базисных функций в составе аппроксимирующего полинома u*(t) во многом определяется требованием обеспечения простоты технической реализации аппаратных (программных) средств дискретизации и восстановления сигнала. Если базисные функции выбраны так, что значения аппроксимирующего полинома совпадают со значениями выборок в моменты их отсчета, то такой полином называют интерполирующим.

     5.3 Критерии качества восстановления.

 

Существуют следующие критерии:

1) Критерий наибольшего отклонения 

где: допускаемая погрешность восстановления,  - max значение    - текущая погрешность приближения.

При этом имеется уверенность, что любые изменения исходного сигнала, включая кратковременные выбросы будут зафиксированы.

2) Критерий СКЗ.            где:    - дополнительная СК погрешность приближения,  - СК погрешность приближения.

          3) Интегральный критерий

 - определяется max среднее значение за период дискретизации.

4) Вероятностный критерий

.

Задаётся допустимый уровень , величина Р – вероятности того, что текущая погрешность приближения  не зависит от некоторого определённого значения

 

6 Лекция 6. Непрерывный канал

 

Цель лекции: ознакомление c непрерывным каналом

Содержание:

а) разложение непрерывного сигнала в ортогональные ряды;

б) Ряды Фурье и их применение в технике связи;

в) теорема Котельникова (Основная теорема Шеннона);

г) пропускная способность непрерывного канала;

д) модель НКС.

 

6.1 Разложение непрерывного сигнала в ортогональные ряды

 

В теории связи для представления сигналов широко используются два частных случая разложения функций в ортогональные ряды: разложение по тригонометрическим функциям и разложение по функциям вида sin x/x. В первом случае получаем спектральное представление сигнала в виде обычного ряда Фурье, а во втором случае – временное представление в виде ряда В.А. Котельникова.

Простейшей с практической точки зрения формой выражения сигнала является линейная комбинация некоторых элементарных функций

                                               .                               (6.1)

В общем случае, сигнал представляет собой сложное колебание, поэтому возникает необходимость представить сложную функцию s(t), определяющую сигнал, через простые функции.

При изучении линейных систем такое представление сигнала весьма удобно. Оно позволяет решение многих задач расчленить на части, применяя принцип суперпозиции. Например, чтобы определить сигнал на выходе линейной системы, вычисляется реакция системы на каждое элементарное воздействие ψk(t), а затем результаты, умноженные на соответствующие коэффициенты аk легко вычислялись и не зависели от числа членов суммы. Указанным требованиям наиболее полно удовлетворяет совокупность ортогональных функций.

Функции           ψ1(t), ψ2(t), . . . . ,  ψn(t) .                                                 (6.2)

Заданные на интервале  ,  называются ортогональными,

если           при    .                                               (6.3)

6.2 Ряды Фурье и их применение в технике связи

 

Основой спектрального анализа сигналов  является представление функций времени в виде ряда или интеграла Фурье. Любой периодический сигнал s(t), удовлетворяющий условию Дирихле, может быть представлен в виде ряда по тригонометрическим функциям

   где ,                            (6.4)

                                          ,    (6.5)

                                          .    (6.6)

Величина а0, выражающая среднее  значение сигнала за период, называется постоянной         составляющей. Она вычисляется по формуле

                                            .                 (6.7)

   Весьма удобной является комплексная форма записи ряда Фурье

                                           ,               (6.8)

где  ,  .

Величина Ak есть комплексная амплитуда, она находится по формуле

                                            .     (6.9)

Соотношения (6.8) и (6.9) составляют пару дискретных преобразований Фурье. Необходимо отметить, что рядом Фурье можно представить  не только периодический сигнал, но и любой сигнал конечной длительности. В последнем случае сигнал S(t) принимается периодически продолженным на всей оси времени. При этом равенство (6.4) или (6.8) представляет сигнал только на  интервале его длительности (-Т/2,Т/2). Случайный сигнал (или помеха), заданный на интервале (-Т/2,Т/2), может быть также представлен рядом Фурье 

                       ,    (6.10)

где ak и bk  являются случайными величинами (для флуктационной помехи – независимыми  случайными с нормальным распределением).

6.3 Теорема Котельникова (Основная теорема Шеннона)

Согласно теореме В.А.Котельникова любой сигнал u(t), не содержащий частоты выше Fm , можно точно восстановить по его отсчетам u(kt), взятым через интервалы t=1/2Fm. Восстановление сигнала осуществляется с помощью ряда

                                  .            (6.11)

Ряд, определяемый выражением (6.11), называется рядом Котельникова. В нём коэффициенты разложения u(kt), равные мгновенным значениям непрерывного сигнала u(t) в моменты kt, являются отсчетами сигнала u(t), а функции

                                                    (6.12)                                                                          

Эти функциями отсчетов, которые имеют одинаковую форму функции типа sinx/x и отличаются друг от  друга временным сдвигом на интервал kt. Графики функции  и их особые (максимумы, минимумы, пересечения с осями координат) показаны на рис. 6.1. Функции отсчетов  представляют собой импульсную реакцию идеального ФНЧ с граничной частотой Fm , если на его вход подавать δ –функцию в момент kt.

Теорема Котельникова является основой для дискретизации непрерывных сигналов по времени, так как, во-первых, доказывает, что непрерывный сигнал можно заменить его дискретными значениями, во-вторых, даёт правило вычисления шага дискретизации ∆t=1/2Fm . При таком шаге дискретизации ряд Котельникова даёт точное временное представление сложного сигнала.

6.4 Пропускная способность непрерывного канала (без помех и с помехами)

Среднее количество информации , передаваемое сигналом на интервале Т:

      HT(s) и HT(s/x) –  энтропии.         (6.13)

Скорость передачи информации по непрерывному каналу находится как предел:

                                           .                                   (6.14)

Максимальная скорость передачи в непрерывном канале определяет его пропускную способность

                                                               (6.15)

где максимум определяется по всем возможным ансамблям входных сигналов s.

Вычислим пропускную способность непрерывного канала, в котором помехой является аддитивный шум ω(t), представляющий собой случайный эргодический процесс с нормальным распределением и равномерным спектром. Средние мощности сигнала и шума  ограничины величинами Рс и Рш, а ширина их спектра равна F.

Условная энтропия HT(x/s) при аддитивном шуме зависит только от его распределения рш(ω), что и объясняет термин энтропия шума. На интервале Т.

                                                                                                                                                                                                                                               

                 (6.16)

 

 где n = 2FT.   

Значения шума с равномерным спектром некоррелированы между собой в моменты отсчетов, разделенные  интервалом Δt=1/2F. Отсутствие представить  энтропию суммы n отсчетов шума (6.16) как сумму энтропий отдельных отсчетов, которые вследствие стационарности  шума равны между собой. С учетом этих соображений можно записать

                                     HT(ω)=nH(ω)=2FTH(ω) .                                  (6.17)

При данной величине HT(x/s)=HT(ω) пропускная способность отыскивается путем максимизации. Отсюда                                              .                              (6.18)

Здесь предполагается, что сигнал s и помеха ω независимы, поэтому мощность сигнала x равна сумме мощностей Рсш. Тогда

                                                     .                          (6.19)                                        

6.5 Модель НКС

 

Канал может быть представлен цепью с соответствующей импульсной характеристикой и источниками помех.

В канале всегда присутствуют аддитивные гауссовские помехи. Кроме гаусcовских в канале действуют помехи:

-       гармонические (сосредоточенные по частоте);

-       импульсные (сосредоточенные по времени);

-       мультипликативные;

-       перерывы связи (17,4 дБ).

К искажениям формы сигнала, также приводят:

-       сдвиг частотных составляющих по частоте;

-       фазовые скачки;

-       фазовое дрожание.

Упрощенная модель канала представлена на следующем рисунке

 

Рисунок 6.2

На входе и выходе непрерывный канал связи– непрерывный сигнал, непрерывного времени.

 

7 Лекция 7.  Методы формирования и преобразования сигналов в системах связи

        

Цель лекции: ознакомление с методами модуляции информации.

Содержание:

а) методы модуляции носителей информации;

б) модуляция гармонического сигнала (несущей частоты);

в) амплитудная (АМ), частотная(ЧМ), фазовая(ФМ) модуляции.

 

7.1 Методы модуляции носителей информации

 

Модуляцией называется процесс управления одним или несколькими параметрами несущей (переносчика информации) в соответствии с изменением параметров первичного сигнала. Модулируемый параметр носителя называется информационным. Различают три вида модуляции: амплитудную (АМ), частотную (ЧМ) и фазовую (ФМ).

В качестве несущей используются не только гармонические, но и импульсные колебания. При этом выбор способов модуляции расширяется до семи видов:

АИМ – амплитудно – импульсная модуляция заключается в том, что амплитуда импульсной несущей изменяется по закону изменения мгновенных значений первичного сигнала.

ЧИМ – частотно – импульсная модуляция. По закону изменения мгновенных значений первичного сигнала изменяется частота следования импульсов несущей.

ВИМ – время – импульсная модуляция, при которой информационным параметром является временной интервал между синхронизирующим импульсом и информационным.

ШИМ – широтно–импульсная модуляция. Заключается в том, что по закону изменения мгновенных значений модулирующего сигнала меняется длительность импульсов несущей.

ФИМ – фазо – импульсная модуляция, отличается от ВИМ методом синхронизации. Сдвиг фазы импульса несущей изменяется не относительно синхронизирующего импульса, а относительно некоторой условной фазы.

ИКМ – импульсно – кодовая модуляция. Ее нельзя рассматривать как отдельный вид модуляции, так как значение модулирующего напряжения представляется в виде кодовых слов.

СИМ – счетно – импульсная модуляция. Является частным случаем ИКМ, при котором информационным параметром является число импульсов в кодовой группе.

 

7.2 Модуляция гармонического сигнала (несущей частоты)

 

Модулированные сигналы различаются по виду несущей и по модулируемым параметрам. В качестве несущей в настоящее время широко используются гармонические колебания, периодическая последовательность импульсов, реже – колебания специальной формы, случайный узкополосный процесс.

Гармоническая несущая ,

например характеризуется тремя свободными параметрами: амплитудой, частотой и фазой. Все они могут быть информационными.

Модулированный сигнал, при гармонической несущей,  в общем случае можно представить в виде

                                                                        (7.1)

где A(t)- огибающая сигнала; ψ(t) – полная фаза.

За интервал времени, в течение которого полная фаза ψ(t) изменится на , огибающая не успеет сильно измениться и ее можно считать медленно меняющейся.

                               Рисунок 7.1- Модулятор

В модулированном сигнале (7.1) мгновенная угловая частота есть производная от полной фазы во времени

                                           .                                                (7.2)

Из выражения (7.2) следует, что полная фаза

                                            .                                                (7.3)

При определении параметров модулированных сигналов обычно считают, что модулирующий сигнал um(t) нормирован, то есть максимальное абсолютное мгновенное значение равно единице - , а средняя мощность , где - коэффициент амплитуды сигнала.

Главная особенность модуляции при гармонической несущей – перенос спектра в область около частоты несущей. Именно это обстоятельство и привело к использованию только модулированных сигналов в радиосвязи, многоканальной связи.

 

7.3 Амплитудная (АМ), частотная(ЧМ), фазовая(ФМ) модуляции

7.3.1 Амплитудная модуляция

 

При амплитудной модуляции амплитуда несущего колебания изменяется пропорционально мгновенным значениям модулирующего сигнала um(t), то есть получает приращение  и становится равной:

                                                                    (7.4)

Где А0 – амплитуда несущей; а – коэффициент пропорциональности, выбираемый так, чтобы амплитуда А(t) всегда была положительной. Частота и фаза несущего гармонического колебания при АМ остаются неизменными.

Временная диаграмма АМ сигнала показана на рис. 5.2, из которого видно, что в соответствии с мгновенными значениями um(t) амплитуда несущей Ао увеличивается до значения Am max получая приращения , то уменьшается до Amin, получая приращение . Обращает на себя внимание, что амплитуда А(t) повторяет форму модулирующего сигнала um(t). В АМ сигнале амплитуда А(t) является огибающей высокочастотного заполнения (на рис.7.2,б она изображена штриховой линией).

Рисунок 7.2 - Амплитудно – модулированный сигнал:

                         а ) модулирующий  сигнал um(t);

                         б) АМ сигнал

Коэффициент модуляции:

                                      .              (7.5)

Математическая модель:

                                       .                (7.6)

 

7.3.2 Частотная модуляция

 

При частотной модуляции отклонение частоты модулированного сигнала от ωо изменяется пропорционально мгновенным значениям модулирующего сигнала um(t):

                                        .                                         (7.7)

где ∆ωД –коэффициент пропорциональности

∆ωД называют девиацией частоты и она равна наибольшему отклонению частоты несущей ω0. Изменение частоты ЧМ сигнала графически показано на рис. 7.3 , где отмечена девиация частоты ∆ωД, соответствующая наибольшему отклонению частоты вниз ∆ωД=∆ω-, поскольку ∆ω+ <∆ω.  Величина um(t) нормирована, то есть | um(t)|≤1.

 

 

                       Рисунок 7.3 - Мгновенная частота ЧМ сигнала:

                                              а) модулирующий сигнал;

                                              б) изменение мгновенной частоты

Девиация частоты является одним из важных параметров частотных модуляторов и может принимать значения от единиц герц до сотен мегагерц в модуляторах различного назначения. Однако, всегда необходимо чтобы выполнялось условие <<.

Полную фазу ЧМ сигнала с частотой (8.7) находим путем интегрирования , т.е.

где ψо можно рассматривать как постоянную интегрирования.

Тогда аналитическое выражение (математическая модель) ЧМ сигнала запишется в виде

                                   .                 (7.8)

Поскольку um(t) входит в это выражение под знаком интеграла, ЧМ часто называют интегральным видом модуляции.

  

8 Лекция 8.  Фазовая модуляция.

 

Цель лекции: ознакомление с фазовой модуляцией информации и временным, спектральным, векторным представлением сигналов                        АМ и ЧМ.

Содержание:

а) фазовая модуляция носителей информации;

б) временное, спектральное и векторное представление сигналов

АМ и ЧМ.

 

8.1 Фазовая модуляция

 

При фазовой модуляции,  отклонение (сдвиг) фазы модулированного сигнала от линейной ω0t0 изменяется пропорционально мгновенным значениям модулирующего сигнала um(t)

                                     .                                   (8.9)

Где - коэффициент пропорциональности, называемый девиацией фазы. Физический смысл  этого коэффициента поясняется  рис.8.1, где изображены модулирующий сигнал и полная фаза ФМ сигнала. С увеличением сигнала um(t) полная фаза растет во времени быстрее, чем по линейному закону. При значениях сигнала um(t)<0 происходит спад скорости роста . Абсолютная величина отклонения (сдвига) фазы от линейной наибольшая, когда um(t) достигает экстремальных значений. На рис 8.1,б отмечено максимальное отклонение фазы вверх и вниз . Наибольшее отклонение фазы от линейной и является девиацией фазы . Измеряется в радианах и может принимать значение от единиц до десятков тысяч радиан.

                                                             б)

Рисунок  8.1 -  Полная фаза ФМ сигнала:

                              а) модулирующий сигнал;

                                б)  изменение полной фазы

Математическая модель:      

                               (8.2)

 

8.2 Временное, спектральное и векторное представление сигналов

     АМ и ЧМ

 

Временная диаграмма АМ сигнала показана на рисунке 7.2.

Спектральная диаграмма однотонального АМ сигнала, построенная по

 

                        (8.3)

симметричной относительно несущей частоты  (рисунок 8.2). Амплитуды боковых колебаний одинаковы и даже при М=1 не превышают половины амплитуды несущего колебания А0.

 

Рисунок 8.2 -  Спектральная диаграмма АМ сигнала при

однотональной модуляции

При гармоническом несущем сигнале временная диаграмма ЧМ:

Рисунок 8.3

Спектральная  диаграмма ЧМ сигнала:

Рисунок 8.4 

Векторные диаграммы АМ и ЧМ представлены на рисунке 8.5.

 

Рисунок 8.5  - АМ сигнал (а), ЧМ сигнал (б) 

8.3 Ширина полосы частот и различие в спектрах  ЧМ и ФМ сигналов

При однотональной модуляции

Отсюда следует, что спектры ФМ и ЧМ одинаковы, если mЧМ= mФМ= m, поэтому будем рассматривать один из них, например ЧМ, для упрощения записей ψ0=0 и Ψ=0.

Для построения спектральной диаграммы ЧМ необходимо знание функций Бесселя Jk(m) при различных значениях k и m. Их можно найти в математических справочниках. На рис 8.6 приведены графики функций Бесселя при k, m≤8. Значения функций Бесселя, не отображенных на графике можно найти по формуле

Jk+1(m)=(2k/m) Jk(m)- Jk-1(m)

 

 

Рисунок 8.6 - Графики функций Бессаля 

Из графиков функции Бесселя следует интересная закономерность: чем больше порядок k функции Бесселя, тем при больших аргументах m наблюдается её максимум, однако при k >m значения функций Бесселя оказывается малой величиной. А раз так, то малыми будут и составляющие спектра и ими можно пренебречь. В практике считают, что можно пренебречь всеми спектральными составляющими, номера которых  k >m+1 (уровень меньше 5% от уровня несущей). Отсюда следует что ширина спектра сигнала

                                              ∆fЧМ,ФМ≈2(m+1)FM                                                              (8.4)

где FM=Ω/2π – частота модулирующего сигнала. Для передачи  модулированного сигнала с высокой точностью иногда считают, что надо учитывать спектральные составляющие с уровнем не менее 1% от уровня несущей. Тогда ширина спектра с угловой модуляцией (рисунок 6.4)

 

fЧМ,ФМ≈2(m++1)FM

 

Различие между ЧМ и ФМ проявляется только при изменении частоты модуляции Ω. При ЧМ , поэтому при m>>1 полоса практически не зависит от Fm. При ФМ  и при m>>1 ширина спектра будет равна , т.е. она зависит от модулирующей частоты Fm. В этом и состоит различие в спектрах ЧМ и ФМ. В случае малого индекса модулирующий спектр ЧМ и ФМ сигналов, так же как и в случае  АМ, имеет только три составляющие:

                                  (8.5)

  

9 Лекция 9.  Импульсная модуляция.

 

Цель лекции: ознакомление с применением импульсной техники для передачи сигналов, импульсная модуляция, амплитудно - импульсная модуляция (АИМ), широтно-имульсная модуляция(ШИМ), фазо-импульсная модуляция(ФИМ), их характеристики.

Содержание:

а) Применение импульсной техники для передачи сигналов, импульсная модуляция, амплитудно - импульсная модуляция (АИМ), широтно-имульсная модуляция(ШИМ), фазо-импульсная модуляция(ФИМ), их характеристики;

б) методы дискретной модуляции;

          в) спектр импульсных последовательностей.

 

 9.1 Применение импульсной техники для передачи сигналов, импульсная модуляция, амплитудно - импульсная модуляция (АИМ), широтно-имульсная модуляция(ШИМ), фазо-импульсная модуляция(ФИМ), их характеристики

 

В системах с импульсной модуляцией переносчиком информации служит периодическая последовательность импульсов одинаковой формы

                                                                                    (9.1)

где U(t) – нормированная функция, характеризующая форму импульса; Ао – амплитуда импульса; tk –  начало переднего импульса k – го импульса tk=kTi+to; Ti – период следования импульсов; tо – начало отсчета последовательности; τk – длительность k – го импульса, отсчитываемая на некотором заданном уровне.

При модуляции один из параметров последовательности изменяется в соответствии с передаваемым сообщением .

При амплитудно – импульсной  модуляции (АИМ) изменяется амплитуда импульса А:

                                                                .                       (9.2)

При широтно-имульсной модуляции (ШИМ) изменяется длительность  импульса:

                                                                                       (9.3)

где  - максимальное отклонение фронта импульсов в одну сторону.

При фазо-импульсной модуляции(ФИМ) изменяется сдвиг импульсов относительно тактовых точек :

                                                  .                           (9.4)

 

 

 

 

 

 

 

 

 

 

 Рисунок 9.1 - Сигналы при различных видах импульсной модуляции

 

 9.2  Методы дискретной модуляции.

 

При дискретной модуляции закодированное сообщение U(t), представляющее собой последовательность кодовых символов {ai}, преобразовывается в последовательность элементов сигнала {si}. Последние отличаются от кодовых символов лишь электрическим представлением. В частном случае дискретная модуляция состоит в воздействии кодовых символов {ai} на переносчик f(t). Такая дискретная модуляция аналогична непрерывной.

Посредством модуляции один из параметров переносчика изменяется по закону, определяемому кодом. Обычно же в качестве переносчика используется непрерывный ток ( гармоническое колебание ). В этом случае можно получить амплитудную (АМ), частотную (ЧМ) и фазовую (ФМ) модуляции. Дискретную модуляцию часто называют манипуляцией, а устройство, осуществляющее дискретную модуляцию (дискретный модулятор), называют манипулятором или генератором сигналов.

При АМ символу 1 соответствует передача несущего колебания в течении времени τо (посылка), символу 0 – отсутствие колебания(пауза). При ЧМ передача несущего колебания с частотой f1 соответствует символу 1, а передача колебания f0 соответствует 0. При ФМ меняется фаза несущей на 180º при каждом переходе от 1 к 0 и от 0 к 1. Модулированный сигнал при этом также будет принимать два значения – s1(t), s2(t).

В настоящее время применяется относительная фазовая модуляция (ОФМ). В отличие от ФМ фаза несущего колебания изменяется на 180º при передаче символов 1 и остается неизменной при передаче символов 0.

При ОФМ манипуляция каждой данной посылки осуществляется относительно предыдущей. Таким образом можно манипулировать любой параметр несущего колебания: при изменении частоты получим (ОЧМ), при изменении амплитуды относительную амплитудную манипуляцию (ОАМ).

Спектр манипулированных сигналов. Сигналы s1(t) и s2(t) – отрезки гармонических колебаний, поэтому их спектры хотя и бесконечны, но все же сосредоточены возле частот несущих ω012.

 

 

Рисунок 9.2 - Временные диаграммы сигналов при дискретной модуляции

 

                   Таблица 9.1 - Ширина спектров манипулированных сигналов

Вид манипуляции

АМ

ЧМ

ФМ

ОФМ

Ширина спектра, Гц

2(В+∆fД)

 Для расчета характеристик канала связи предназначенного для передачи манипулированных сигналов обычно не требуется знания точной структуры спектра, достаточно определить ширину спектра двоичных манипулированных сигналов, полученные на основе формулы

 

сведены в таблице 9.1 . Обозначения в ней следующие: В – скорость модуляции, Бод; fД – девиация частоты, Гц.

  

   9.3 Спектр импульсных последовательностей.

 Для импульсных последовательностей спектр является дискретным:

т.е. амплитуды комплексного спектра могут быть получены из непрерывного спектра при дискретных значениях arg

 

Для Т=2:

Т.е. в спектре имеются только нечетные гармоники: 1, 3, 5,…..

Для Т=5:                                                                                      

Рис.9.3

 

10 Лекция 10.  Теория помехоустойчивого кодирования

 Цель лекции: ознакомление c теорией помехоустойчивого кодирования и теоремой об эффективном кодировании.

Содержание:

а) теория помехоустойчивого кодирования;

б) пропускная способность и скорость передачи информации;

в) избыточность сообщений;

г) теорема об эффективном кодировании.

 

10. Теория помехоустойчивого кодирования

10.1 Пропускная способность и скорость передачи информации

 

Для электросвязи задача обеспечения помехоустойчивости является одной из главных. Система связи должна быть спроектирована и эксплуатироваться так, чтобы она при наличии помех обеспечивала заданное качество передачи сигналов и сообщений. Расчет влияния помех на передачу сигналов и разработка способов уменьшения этого влияния является основными вопросами, решаемыми в теории помехоустойчивости.

Помехоустойчивое кодирование сообщений или кодирование с прямым исправлением ошибок применяется в системах связи, в которых отсутствует или недоступен обратный канал для передачи запросов на повторную передачу, задержки в канале при запросах повторной передачи оказываются недопустимо большими или, наконец, уровень помех настолько велик, что количество повторных передач становится чрезвычайно большим.

Скорость передачи – это количество взаимной информации, передаваемой по каналу связи в единицу времени,

    R= I(A’,A)/TH=F*[(H(A)-H(A/A’)]=F*[H(A’)-H(A’/A)].                  (10.1)

Пропускная способность – это максимально достижимая для данного канала скорость передачи информации

                    C= Rmax= max F*I (A’,A),     {P} или {W}                         (10.2)

где максимум ищется по всем распределениям вероятностей источника ДС или всем ФПВ источники НС. Величина С является характеристикой только канала связи и не зависит от статистики источника сообщений.

        

10.2 Избыточность сообщений

В качестве источника сообщений рассмотрим оператора, который вводит в компьютер текста на русском языке. Очевидно, что буквы в тексте появляются с разными вероятностями. Так, буква  А передается значительно чаще чем Ц или Ю. Кроме того, появление очередной буквы зависит от предыдущей. Ясно, что после гласных не появится Ь, Ъ или Ы. Весьма редким будет появление подряд трех букв Е (в слове «змееед»). Таким образом, на выходе источника «с памятью» (зависимыми сообщениями) неопределенность оказывается меньше, чем при отсутствии памяти, когда сообщения появляются хаотично. Таким образом, мы подошли к понятию избыточности источника, которую формально можно определить соотношением:

                                                .                       (10.3)

Отсюда видно, чем больше энтропия, тем меньше избыточность источника и наоборот. Ясно также, что величина избыточности принимает значения в пределах 0≤ρ≤1.

Данная величина характеризует число букв (символов) n, используемых источником сообщений для передачи заданного количества информации, относительно необходимого букв.

Избыточность можно определить так:

                                                      ρ=(n-nmin)/n=1-nmin/n.                          (10.4)

Величину μ=H(A)/logN=nmin/n называют коэффициентом сжатия. Он показывает, до какого значения без потери информации можно сжимать передаваемые сообщения, если устранить содержащуюся в них избыточность. Например, при передаче телеграмм из текста исключают союзы, знаки препинания которые легко восстанавливаются при чтении на основании известных правил.

Очевидно, что избыточность приводит к увеличению времени передачи сообщений, излишней загрузке каналов связи и, как следствие, - к снижению эффективности их использования. Вместе с тем было бы неверным всегда рассматривать избыточность как признак несовершенства источника сообщений. В ряде случаев она бывает полезной. Наличие зависимостей между буквами и словами текста дает возможность восстанавливать его при искажении отдельных букв, т.е. избыточность можно использовать для повышения достоверности передачи информации в условиях воздействия помех.

Помимо избыточности важным параметром, характеризующим любой источник с фиксированной скоростью Vи=1/Ти симв/с выдачи сообщений, является его производительность, которую определяют как энтропию в единицу времени (секунду):

                                                             H’(A)=VиH(A).                           (10.5)

Если энтропия максимальна и равна log N, то величина Rи=logN/Tи, бит/с, называется информационной скоростью источника.

Смысл производительности – среднее количество информации, которое выдается источником в течение одной секунды непрерывной работы.

 

10.3 Теорема об эффективном кодировании.

 

Теоретическую основу эффективного кодирования составляет основная теорема К.Шеннона для канала без шума. Суть этой теоремы состоит в следующем.

 Пусть источник имеет энтропию H (бит на символ), а канал имеет пропускную способность C (бит в секунду). Тогда можно закодировать сообщения на выходе источника таким образом, чтобы передавать символы (элементы) по каналу со средней скоростью C/H-E символов в одну секунду, где E – сколь угодно мало. Передавать элементы сообщения со средней скоростью, больше чем C/H, невозможно.

                                               

                                                 Рисунок 10.1

Отметим, что при кодировании элементов ДС, передаваемых по каналу связи без помех, необходимо выполнить следующие два условия:

1)     кодовые комбинации должны быть различны (т.е. однозначно декодироваться на приеме) и однозначно связаны с соответствующими элементами ДС;

2)     способ кодирования должен обеспечить максимальную экономичность (минимальную среднюю значность) кода, при которой на передачу данного сообщения затрачивается минимальное время или обеспечивается максимальная скорость передачи. Эффективные коды, удовлетворяющие первому условию, называют префиксными (в этих кодах ни одна кодовая комбинация не является передней частью или «префиксом» другой кодовой комбинации). Коды, удовлетворяющие второму условию, называют оптимальными.

Минимальная средняя  значность nmin оптимального кода при кодировании сообщений источника, вырабатывающего  неравновероятные независимые друг от друга элементы  находится из равенства

                                                   .                                 (10.6)

Причем среднее число  кодовых символов конкретного кода, приходящихся на один элемент (символ) сообщения, определяют так:

                                                     .                  (10.7)  

Для оптимального двоичного  эффективного кода (в=2, m=2)

                               .           (10.8)

 В этом случае условие оптимальности   n=nmin   достигается, если в (11.7) и (11.8) принять

                                       .                       (10.9)

Итак, в оптимальном эффективном коде значность ni кодовой комбинации, соответствующий элементу сообщения  А, зависит от вероятности pi ее наступления. Чем больше вероятность, тем меньше значность кодовой комбинации и наоборот. С учетом этого, подобные коды называют еще статистическими (вероятностными). Кроме того, эффективные (статистические) коды относятся к неравномерным.

Избыточность кодера источника оценивают так:

                                  .            (10.10)

Примерами двоичных  эффективных кодов, близких к оптимальным и обеспечивающих избыточность , близкую к нулю, являются коды Шеннона-Фано и Хаффмена.

Разберем принцип двоичного кодирования по методу Шеннона-Фано. Элементы , ДС располагаются вначале в виде столбца (группы) в порядке убывания их вероятностей. При кодировании на первом этапе эта группа разбивается на две подгруппы, по возможности с равными суммарными вероятностями. Всем элементам первой подгруппы приписывается первый кодовый символ 0, для второй подгруппы I. На втором этапе каждая из подгрупп также разбивается на две подгруппы с примерно равными вероятностями, и частная подгруппа определяет второй двоичный символ. Этот процесс продолжается до тех пор, пока не получатся подгруппы, содержащие только по одному элементу сообщения.

В таблице 10.1 приведен пример построения эффективного кода Шеннона-Фано для источника  ДС с распределением вероятностей:

, ,

Для данного источника: Н (А)=1,75 бит,  Hmax= 2 бит,  r(A)=0.125.

Для  построенного кода:  бит,  nmin=1.75 бит, . Следовательно, данный код оптимален. В табл. 1.1 для  сравнения построен равномерный примитивный код: бит. Отношение /= ксж называют коэффициентом сжатия.  Здесь Ксж=1,15.                                                                    

                                                                                                  Таблица 10.1

А

 

    Этапы кодирования

Эффект. код

Примитив. код

  I

II

III

Код. комб.

Знач-

ность

ni

Код. комб.

Значность

 niпр

а3

а1

а0

а2

 

0,5

0,25

0,125

0,125

0

1

1

1

 

-

0

1

1

 

-

-

0

1

 

0

10

110

111

 

1

2

3

3

 

11

01

00

10

 

2

2

2

2

 

11  Лекция 11.  Помехоустойчивые корректирующие коды.

Цель лекции: ознакомление c помехоустойчивыми корректирующими кодами.

 Содержание:

          а) общие сведения;

б) Блоковые коды;

в) избыточность сообщений;

г) связь корректирующей способности кода с кодовым расстоянием.

11.1. Общие сведения.

          Необходимость введения избыточности.

Причем избыточность вводится, чтобы вводимые разряды удовлетворяли дополнительным условиям, проверка этих условий дает возможность обнаружить и исправить ошибки. Такие коды называются помехоустойчивые корректирующие коды и используются для обнаружения и исправления ошибок.

         Обнаруживающие - коды которые обнаруживают ошибки.

В большинстве своем п/у коды являются алгебраическими т.е. результат проверки осуществляется в ходе выполнения над элементами кода алгебраических действий.

Алгебраические коды делятся:

Блоковые;

Неравномерные;

          Блоковые коды имеют четкое деление на блоки, в пределах которых последовательности из R информационных символов ставятся в соответствие m контрольных:   n=k+m

Блоковые коды могут быть равномерные, неравномерные если n=const.

Различают:

Разделимые – четкое деление на k и m символы

Неразделимые  - нет деления на k и m  символы (требуется в криптографии)

Неравномерные коды. В отличие от блоковых избыточность вводится непрерывно без разделения последовательности на блоки.

Могут быть:

  Разделимыми;

  Неразделимыми.

 Пример непрерывного кода  - реккурент (сверточно)

11.2 Блоковые коды

11.2.1. Общие принципы использования избыточности

         Способность кода обнаружить и исправить ошибки обусловлено наличием избыточных символов.

Обнаружение ошибок. Рассмотрим последовательность информационных символов, поступивших на вход кодирующего устройства на выходе КУ каждому блоку из k символов ставится в соответствие блок из n символов.

 

Возможно вычислить: - безошибочная передача;

-переход в другие разряды КК (необн. ош.);

-переход в неразр. КК (обн. ошибка);

Следовательно, часть обнаруженных КК от общего числа возможных случаев равна:

       В пределе : k=n -> Kобн =0 

Допустим: n =k+1 т.е. имеется всего один избыточный символ тогда:

                                

         Тогда будет обнаружено половина всех ошибок.

Исправление ошибок.

       При декодировании необходимо полученные КК разбить на  непересекающихся множества М, каждое из которых ставится в соответствие одной из разрешенных КК. При получении какой либо  КК, В – принадлежит множеству М мы примем ее как передаваемая кодовая комбинация А, ошибка может быть исправлена в  случаях.

        Всего случаев перехода в неразрешенные комбинации КК:

т.е. при наличии избыточности код способен исправлять ошибки:

         Чем больше контрольных символов,  тем меньше возможность их исправить. Способ разбиения на множества зависит от характеристик кода. Большинство помехоустойчивых кодов разработаны для исправления взаимно независимых ошибок и исправления пакетов ошибок.

         Взаимно независимые ошибки зависят от текущих искажений и не зависят от предыстории.

         При взаимно независимых ошибках вероятность искажения любых r символов в n – разрядной КК:  – вероятность ошибки.

Т.к. p<<1 , то наиболее вероятны ошибки низшей кратности.

11.2.2 Связь корректирующей способности кода с кодовым расстоянием.

          Степень различия двух КК называется расстоянием между ними  (по Хэммингу) т.е. кодовое расстояние:

  1001101

Å

  1011011

  0011110   d=7  

Определяется сложением 2-х кодовых комбинаций по модулю 2.

Минимальное кодовое расстояние  - определяется по всем парам кодовых комбинаций данного кода. Декодирование по методу максимального правдоподобия осуществляется следующим образом, чтобы принятая КК отождествлялась с разрешенной, которая отличается в наименьшем числе символов.      При d=1  –  все  КК являются разрешенными.

Рассмотрим код n=3

000

001

010

011

100

101

110

111

 

 

 

пример равнодоступного кода.

 

 

 

 

пример равнодоступного кода. Любая ошибка трансформирует КК данного кода в другую – разрешенную. Это случай  - доступного кода который не обладает обнаружением и исправляющими свойствами.

При d=2

001

001

101

110

 

разрешенная КК

 

 

001

010

100

111

 

запрещенная КК

 

 

 

Такой код обнаружит все одиночные ошибки.

В общем случае для обнаруживающего кода кодовое расстояние определяется:

                        .      r – число обнаруженных ошибок.

Для исправления ошибки необходимо локализовать ошибку. Т.е. разбить всю КК на не пересекающиеся множества.

Допустим разрешенные КК:   1000 -> 001 010 100

                                                             1111 -> 110 101 110

Геометрическая интерпретация блоковых корректирующих кодов.        Любая n – разрядная КК может быть представлена как вершина n – мерного единичного куба, длин ребра =1

  

 

12 Лекция 12.  Коды обнаруживающие ошибки.

 

Цель лекции: Ознакомление c помехоустойчивыми корректирующими кодами.

 Содержание:

          а) коды обнаруживающие ошибки;

          б) математическое введение к групповым кодам;

в) избыточность сообщений;

          г) построение двоичного группового кода;

          д) определение числа избыточных символов.

12.1 Коды обнаруживающие ошибки.

         Как указывалось выше для обнаружения ошибки кодовое расстояние по Хэммингу должно быть равно: , где r – число обнаруженных ошибок.

1) Примером кода с обнаружением ошибки является код с проверкой на четность

Исходная КК

Контрольные символы

Выходная КК

00001

1

000011

00010

1

000101

00011

0

000110

00100

1

001001

00101

0

001010

2) Код с удвоением  элементов (корреляционный код). Корреляционный код строится таким образом: каждый элемент двоичного кода передается двумя символами:

1 -> 10   1010011 ->

0 -> 01  -> 10011001011010.

Корреляционный код содержит в два раза больше символов чем исходный, обнаружение ошибки осуществляется таким соображениями в парных элементах должны быть разные символы, т.е. элементы 00 или 11 – бракуются.  Не обнаруживаются ошибки типа:

                10 –> 01

                01 -> 10.

Высокая помехоустойчивость корреляционного кода достигается большой избыточностью.

Достоинства: нет постоянной составляющей т.к. число 1 = 0

3) Инверсный код

Информационные символы

Контрольные символы

Инверсный код

111001

111001

111001111001

101111

010000

101111010000

(Тутевич стр.65-69.)

Линейные коды.

Линейные коды  - значения проверочных символов которые определяются с использованием линейных операций над определенными информационными символами.

Обычно проверочный символ m =1, если  , число проверочных равенств, номера конкретных  входящих в каждое проверочное равенство определяется видом и характеристиками кода.

При декодировании осуществляется справедливость избыточных равенств. Для  двоичных линейных кодов определение также сводится к проверке на четность числа единиц, входящих в каждое равенство.

Совокупность проверок дает информацию о наличии ошибки,  а  в случае необходимости и  NN наложенных разрядов.

 

12.2 Математическое введение к групповым кодам

 

Основой математического описания линейных кодов является линейная алгебра (теория группы, полей, теория векторных пространств, теория матриц).  КК рассматривается как элементы множеств.

Например:

КК двоичного кода принадлежащей множеству положительных двоичных чисел.

Алгебраические системы – множества для которых определены некоторые алгебраические операции.

Алгебраические операции – однозначное сопоставление двум элементам некоторого 3-го элемента по определенным правилам.

 

Основные операции

Обратные операции

Сложение

(a+b)=c

Вычитание

(a-b)=c

Умножение

A*b=c

Деление

a/b=c

Рассмотрим основные алгебраические системы, использующиеся в теории корректирующих кодов.

Группа – множество элементов в которых определена одна основная операция и выполняются следующие аксиомы:

          1. В результате применения операции к любым двум элементам группы образуется элемент этой же группы.

          2. Для любых трех элементов группы a, b и с удовлетворяется равенство:

(a+b)+c=a+(b+c)

или

a(bc)=(ab)c.

         3. В любой группе G существует однозначный определенный элемент, удовлетворяющий для всех а из G условию:

 Осн. сложение - > a+0 = 0+a =a.

 Умножение         -> a*1  = 1*a =a.

         4. Всякий элемент группы обладает элементом, однозначно определенным уравнением:

Сложение

а+(-а)=-а+а=0

Умножение

 (-а) – противоположный элемент

   – обратный элемент

Для коммутативной (абелевой)  группировки выполняются условия коммутативности.

Сложение

а+b=b+а

Умножение

ab=ba

Одной из основных операций при рассмотрении п/у кодов является определение сложения по m2:

0 0 = 0

0 1 = 1

1 0 = 1

1 1 = 0

 Особенностью операции суммирования по mod2 является, то  что сложение по mod2 однозначно  равно вычитанию по mod2 т.к. аа=0,   то

а =-а        

 

12.3 Построение двоичного группового кода

12.3.1 Определение числа избыточных символов.

 

Построение  конкретного корректирующего кода производится исходя из требуемого  объема кода Q, т.е. необходимого числа передающих КК.

Вектор ошибки – КК, которая имеет нули в правильно принятых разрядах и единицы в искаженных разрядах.

Если необходимо передать Q информационных сообщений, то число разрядов К должно быть равно:  k – число информационных символов.

Чтобы иметь возможность получить информацию об искаженном разряде каждому вектору должен быть поставлен в соответствие некоторая контрольная последовательность символов, называемая опознавателем (синдром).

Каждый символ опознавателя оценивается в результате проверки на полученной стороне одной из частых проверок.

Проверки составляются  т.о. чтобы сумма всех символов по модулю 2 (включая проверочный), включенных в каждое из равенств = 0., т.е.  числа “1” в таком равенстве всегда четные.    Поэтому эти равенства называют проверками на четность.

Если искажение среди  проверочных разрядов отсутствует, то такая проверка дает 0 .

Если среди проверочных разрядов имеются искажения , то в в результате проверки  =>1.

В результате всех проверок образуется определитель :

 если искажений нет > 00..00; искажения нет > 1 в искаженных разрядах.

То количество исправленных ошибок определяет количество избыточных символов. Их число должно быть достаточным для обеспечения необходимого количества опознавателей.

Для исправления одиночных ошибок достаточно иметь: n векторов ошибок

Тогда число ненулевых определителей должно быть :

m – число контрольных символов или .

Для исправления двойных независимых ошибок: .

Для исправления ошибок кратности S: .

13.7 Код Хэмминга с исправлением одиночной и обнаружением двойной ошибки  (d=4).

Реализуется следующим образом: путем добавления дополнительного контрольного разряда общей проверки на четность. Для кода  (8.4) дополнительная проверка имеет вид: .

При приеме возможны следующие виды:

1) ошибок нет:                        - - общая проверка даст нуль

                                                        -   частные проверки дают  “0”

2) одиночная ошибка в разрядах :

                                                       - общая проверка   0;

                                                       - частные проверки  0;

3) ошибка в разряде  :        - частные проверки  0;

                                                       - общая проверка     0;

4) двойная ошибка:                - частные проверки = 0;

                                                       - общая проверка     0;

 13 Лекция 13.  Помехоустойчивые корректирующие коды.

 Цель лекции: ознакомление c помехоустойчивыми корректирующими кодами.

 Содержание:

          а) cоставление таблиц опознавателей;

          б) определение проверочных равенств;

в) Коды Хэмминга;

г) Коды Рида-Соломона;

         д) Код Голея;

         е) коды Финка-Хагельбаргера

     

          13.1 Составление таблиц опознавателей.

           Рассмотрим случай обнаружения одиночных ошибок. Допустим Q=15 тогда , с другой стороны:

Из этого выражения можно получить следующую таблицу:

Инф. K

1

2..4

5..11

12..26

27..57

Контр. m

2

3

4

5

6

       Составим таблицу соответствия вектора ошибки и опознавателей КК n=7:

0000001

001

0000010

010

0000100

011

0001000

100

0010000

101

0100000

110

1000000

111

 

  13.2 Определение проверочных равенств.

На основе таблицы, показанной выше, составим проверочные равенства следующим образом. В проверочное равенство  входят те разряды КК у которых имеется единица в соответствующем разряде определителя.

Тогда проверка №1:

.

Проверка №2 – аналогично, во втором разряде опознавателя:

.

Проверка №3 – аналогично в третьем разряде определителя:

.

Теперь нужно определить NN проверочных и информационных разрядов в КК. Нужно чтобы контрольные символы  входили во все  проверки только один раз. Это обеспечит независимость декодирования, т.е. значения контрольных разрядов может быть определено решением одного из проверочных равенств:

               то получим размещение:

 

a1

a2

a3

a4

a5

a6

a7

m1

m2

k1

m3

k2

k3

k4

 

Пример. Код Хэмминга d=3, n=7, k=4, m=3 KK = 1011

 

a1

a2

a3

a4

a5

a6

a7

0

1

1

0

0

1

1

 

 

 

 

 

 

 

то выходная КК:

0

1

1

0

0

1

1

0

1

1

0

1

1

11

Проверка:

Опознаватель  = 101 >  ошибка в разряде №5

Вектор ошибки: 0000100

Исправление ошибки:      0110111

                                                  

                                                  0000100

      Исправленная КК:     0110011

 

 13.3 Коды Хэмминга.

 

 Эти коды являются примером линейных кодов, исправляющих одну единственную ошибку. Длина блока кодов удовлетворяет соотношению n=2(n-k)-1, где n-k количество проверочных символов. Например, при n-k=3 получаем код (7,4).

 

13.4 Коды Рида-Соломона.

 

Коды РС относятся к классу недвоичных кодов БЧХ. В кодере сообщение, состоящее из k q-ичных символов, выбираемых из алфавита,  содержащего q=2m символов, преобразуется в кодовое слово РС- кода, содержащее n двоичных символов. Поскольку обычно входные и выходные алфавиты равны степени 2, то входные и выходные символы могут быть представлены m- разрядными двоичными словами. Таким образом, входное сообщение можно рассматривать как km- разрядное слово, а выходное кодовое слово – как nm- разрядное двоичное слово. Длина кода РС равна     n=q-1. Если исправляющая способность кода равна t ошибочным символам, то имеет место соотношение n-k=2t. Коды РС существуют при , а их расширение имеют длины блока: n= q и n= q+1.

 

13.5 Код Голея.

 

Этот код относится к числу наиболее интересных. Он позволяет исправить ошибки высокой кратности (t>1) и является также совершенным кодом. Код Голея (23,12) является циклическим и исправляет все конфигурации ошибок, кратность которых не превышает трех. С кодом Голея (23,12) связан код (24,12), который образуется добавлением к кодовым словам кода дополнительного проверочного символа. Коды (23,12) и (24,12) имеют минимальное кодовое расстояние, равное соответственно 7 и 8. Поэтому код (24,12), кроме исправления ошибок кратности 4 при незначительном изменении кода обнаруживает ошибки выше кратности 4. Код (24,12) относится к числу наиболее распространенных. 

 

 13.6 Непрерывные коды.

 

Из непрерывных кодов, исправляющих ошибки, наиболее известны коды Финка-Хагельбаргера, в которых контрольные символы образуются путем линейной операции над двумя или более информационными символами. Принцип построения этих кодов рассмотрим на примере простейшего цепного кода. Контрольные символы в цепном коде формируются путем суммирования символов, расположенных один относительно другого на определенном расстоянии:

                          eik=ci+ck; ei+1, k+1=ci+1+ck+1; …

Расстояние между информационными символами l=k-i определяет основные свойства кодов и называется шагом сложения. Число контрольных символов при таком способе кодирования равно числу информационных символов, поэтому избыточность кода æ=0,5. Важное преимущество непрерывных кодов состоит в их способности исправлять не только одиночные ошибки, но и группы ошибок. Если задержка контрольных символов выбрана равной 2l, то можно показать, что максимальная длина исправляемого пакета ошибок также равна 2l при интервале между пакетами 6l+1. Таким образом, возможность исправления длинных пакетов связана с увеличением шага сложения l, а следовательно, и с усложнением кодирующих и декодирующих устройств.     

14 Лекция 14.  Циклические коды.

 

Цель лекции: ознакомление c циклическими кодами

Содержание:

          а) циклические коды;

б) свойства символического умножения;

в) требования, предъявляемые к образующему многочлену;

г) выбор образующего многочлена по заданному объему кода и заданной корректирующей способности;

         д) обнаружение одиночных ошибок (d=2);

    е) исправление одиночных или обнаружение двойных ошибок (d=3).

 

14.1 Циклические коды

 

Любой групповой код вида (n,k) может быть записан в виде матрицы, включающий k линейно независимых строк по n символов и наоборот.

Среди различных кодов  можно выделить также коды, у которых все КК могут быть получены циклическим сдвигом 1-й КК которая называется образующей. Такие коды получили название циклических.

Сдвиг осуществляется справа налево, причем крайний левый символ  каждый раз переносится в конец КК.

Исх. КК 001011

Матрица КК

При построении т.о. ЦК оказывается количества КК значение меньше чем количество КК в групповом коде. Как найти общее свойство и обеспечить необходимое количество КК?

При описании ЦК КК можно представить в виде многочленов некоторой переменной х. Показатели степени у переменной х соответствуют NN разрядам (начиная с нулевого), а коэффициентами при х, в общем случае, являются элементы  поля GF(q).  Поэтому для двоичного ЦК коэффициентами могут быть   0 или 1.

Так, например: КК 001011 –

    или  .

Наибольшая степень х в слагаемом с ненулевым коэффициентом называется степенью многочлена.

Циклический сдвиг многочлена без переноса “1” в конец КК можно получить простым умножением на х исходной КК:

*                х

Если эти КК (001011 и 010110) сложить по m2, то результат сложения будет соответствовать умножению g(x) на (х+1):

 001011                                

Å                 =>                                         х +1  ,   

 010110                                             

 011101                         Å

                                 

                                   .

 

Циклический сдвиг строки матрицы с “1” в старшем разряде равносилен умножению соответствующего многочлена на х c одновременным вычитанием из результата многочлена , т.е. с приведением по m2 ().

Т.о. любая разрешенная КК ЦК  могла быть получена в результате умножения g(x) на некоторый другой многочлен с приведением результата по m( ), т.е. при соответственном выборе  g(x).

1) Любой многочлен ЦК  (разрешенная КК) будет делится на него без остатка.

2) Ни один многочлен, соответствующий запрещенной КК  на g(x) без остатка не делится , т.е. при делении на g(x) образует остатки.

Это свойство позволяет обнаружить ошибку. По виду остатка можно определить вектор ошибки.

                      Свойства символического умножения.

1) Многочлен перемножается по обычным правилам, но с приведением подобных членов по m2.

2) Если старшая степень произведения не превышает n-1 то это произведение является результатом символического умножения.

3) Если старшая степень произведения   n, то многочлен произведения делится  на заранее определенный многочлен степени n и результатом символического умножения считается  остаток от деления.

Степень остатка   n-1, следовательно этот многочлен  принадлежит  к множеству n – разрядных КК.

Заранее выбранный элемент многочлен -> (),

Требования, предъявляемые к образующему многочлену.

Согласно определению ЦК все многочлены, соответственно его КК должны делится на g(x)  без остатка.

Для этого достаточно, чтобы  на g(x) делились без остатка многочлены составляющие образующую матрицу ЦК.

Эти многочлены получаются циклическим сдвигом, что соответствует последнему умножению g(x) на х, с приведением  по модулю .

Следовательно, в общем случае многочлен g(x) является остатком от деления производной  на многочлен () и может быть записан так :

 

Т.о. образующий многочлен должен быть делением многочлена ()

т.е входить в разложение многочлена (). С другой стороны при делении g(x)  на образующий многочлен g(x) при ошибочном приеме  должен образовываться остаток. По виду остатка происходит локализация ошибок и их исправление.

Следовательно, корректирующая способность ЦК будет тем выше, чем больше остатков образует g(x).

Привлекая аналогию из простых чисел, можно сказать, что наибольшее число остатков =  может образовывать только неприводимый (простой) многочлен.

Неприводимый многочлен -> аналог простого числа (- делится только на 1 и на самого себя).

Т.о. 2 свойство образующего многочлена:

- делитель многочлена ();

- неприводимость в поле GF(2), где определена операция  суммы по m2.

         Число 25 - > сложное в поле десятичных чисел.

- 1101 – неприводимый в поле GF2             

  1101

Å

  101

    111

Å

    101

      10 - остаток

     

14.2 Выбор образующего многочлена по заданному объему кода и заданной корректирующей способности.

 

      По заданному объему кода однозначно определяется количество информационных разделов.

      Далее имеется min количество m, обеспечивающее необходимую корректирующую способность кода.  Для ЦК – это нахождение соответствующего g(x).

 

14.2.1 Обнаружение одиночных ошибок (d=2).

 Любая принятая по КС КК может быть представлена:

           h(x)=f(x)

f(x) – неискаженная КК,    - вектор ошибки.

Понятно что F(x) должна делится на g(x) без остатка.

Вектор ошибки имеет “1” в искаженных разрядах и “0” – в правильно принятых. Вектор ошибки имеет вид: ,

где  i- N искаженного разряда. Следовательно, многочлен (одночлен) х не должен делиться на g(x). Таким наиболее простым многочленом g(x) является х+1 остаток от деления на х+1 может иметь два значения:            .

Т.е. при любом числе информационных символов необходим только 1 контрольный разряд.

Это – циклический код с проверкой на четность. Т.к. в разрядах КК данного ЦК будет число единиц.

 

14.2.2 Исправление одиночных или обнаружение двойных ошибок (d=3).

 

Для исправления одиночной ошибки как уже ранее говорилось, предварительно необходимо локализовать её, т.е. найти место, где произошла ошибка.

         Следовательно, как и в случае с КК каждой одиночной ошибке должен соответствовать свой опознаватель.

 Т.к. в ЦК роль опознавателя играют остатки от деления на g(x), то g(x) должен обеспечить необходимое число остатков.

         Наибольшее число остатков дает неприводимый g(x): ,

где m=n-k – степень многочлена.

         Следовательно, необходимым условием исправления любой ошибки является выполнение неравенства: ,

где  – число комбинаций по 1 в КК из n  символов.

Тогда:

Зависимость между n, m и k.

 

m

1

2

3

4

5

6

7

8

9

10

n

1

3

7

15

31

63

127

255

511

1023

k

n

-

k

 

 

 

 

 

 

 

С другой стороны, g(x) должна быть делителем многочлена (). Все полиномы удовлетворяющие этим требованиям приведены в соответствующих таблицах в учебниках:  Дмитриев, Тутевич, Шувалов и т.д.

15 Лекция 15.  Методы построения циклических кодов.

 

Цель лекции: ознакомление c методами построения циклических кодов 

Содержание:

          а) методы построения циклических кодов;

          б) декодирование ЦК;

15.1 Методы построения циклических кодов.

 

1) Прямые умножения.

.

Недостатки: такой код не является систематическим поэтому не получил применения.

                1011

       Å

          1011…..                            

          1010011

2) Систематические ЦК.

      Умножим КК  на одночлен  х, имеющий степень = степени g(x).

      Делим произведение   на образующий элемент g(x):

     

     Умножим равенство (*) на g(x) и перенесем r(x) в левую часть, равенства получим:

                     f(x)= g(x)* g(x) = .

     Т.е. необходимая КК ЦК получается сдвигом исходной КК  на m разрядов и добавлением к ней остатка от деления.

 Покажем, что указанная КК делится на g(x) без остатка:

 g(x)* g(x) – делится без остатка следовательно: - то же делится без остатка.

Способ №3 см Дмитриева.

Рассмотрим пример:

=1001  g(x)=1011    тогда  = 1001000

 ,    тогда:

Проверяем:                         

Получим систематический циклический код d=3.

15.2 Декодирование ЦК.

Обнаружение ошибок.

         Обнаружение ошибок  - достаточно просто.

Если ошибок нет =>

                      есть => .

При безошибочном приеме -> контрольные символы отбрасываются, информационные – используются по назначению.

Обнаружение и исправление ошибок.

Для локализации ошибок необходимо каждому вектору ошибки поставить в соответствие свой опознаватель.

Допустим:

Тогда вектор ошибки:

0000001

=>

001

0000010

010

0000100

100

0001000

011

0010000

110

0100000

111

1000000

101

Т.е. достаточно загрузить в память эту таблицу.

2-й метод.

   1. Вычисление остатка:

  

   2. Подсчет веса остатка:

     -вес остатка должен быть равен или < числа исправленных ошибок 

    W

   2a. Если условие выполняется, то

   3. W > S Осуществляется циклический сдвиг КК на 1 символ влево.

    Полученная КК вновь делится на g(x)

    If  W S. То см. пункт 2а

   3а. Сдвиг вправо направленной КК на 1 символ вправо.

   4. Дополнительные сдвиги влево до тех пор пока: WS

Затем п2.а

Затем повторение  п.3.4 столько раз, сколько было сдвигов слева.

Пример. Принята КК: 1101110

S=1

  1. Делим КК на g(x):                

   1101110|1011

   1011 

     1101

     1011

       1101   

       1011         

         1100

         1011

           111   

  2. Проверим вес: W=3

  3. Сдвиг влево на 1 разряд:

      1011101

  4. Делим

       1011101|1011

       1011

               |101|  

5. Проверим вес W=2

6. Новый сдвиг и деление:

    0111011|1011

      1011

        1011

        1011  

           |001|  

7. Складываем

   0111011

Å

           011

   0111010

8. Два циклических сдвига вправо:

   1001110

9. Проверяем:

             1001110|1011    

             1011

                 1011

                 1011   

                         0

Метод 3. Находится опознаватель для вектора ошибки в старшем разряде

  1000000|1011

  1011

      1100

      1011

        1110 

        1011

          |101|

При поступлении в схему деления на 7 такте будет образовываться этот остаток. Если ошибка во 2 разряде, то этот остаток образуется на 8-м такте и т.д.

 

 16 Лекция 16.  Теория помехоустойчивых систем

 

Цель лекции: ознакомление c критерием оптимального приёма сообщений помехоустойчивыми корректирующими кодами, синтез алгоритмов и схем оптимальных приёмников, корреляционный приёмник, приёмник с согласованным фильтром.

Содержание:

       а)  критерии оптимального приёма сообщений;

         б) синтез алгоритмов и схем оптимальных приёмников, корреляционный приёмник, приёмник с согласованным фильтром.

 

16 Теория помехоустойчивых систем

16.1 Критерии оптимального приёма сообщений

В теории статистических решений, составляющей основу теории электросвязи, для анализа качества принимаемых приемником решений используют различные критерии. Одним из наиболее общих критериев оптимальности является критерий минимального риска. Он состоит в том, что каждой паре (переданный сигнал Si и сигнал Sj на выходе решающего устройства (РУ) приёмника) сопоставляются числа L(Si, Sj), i, j= 0, ma-1, называемые штрафами или потерями. Например, чем более нежелательны ошибки решений, тем больше потери (штрафы) им приписываются. Учитывая случайную природу переданных и принятых сигналов, находят средние потери или риск

                                                (16.1)

где p(Si)=pi – априорная вероятность передачи сигнала Si(t);  - условная вероятность попадания принятого сигнала  в пределы области решения Гj о передаче сигнала Si (t). Если j=i  - это правильное решение; при  ошибочное решение.

Соотношение (16.1) есть функционал от границ Гj области решения . Приёмник, в котором границ (пороги) области решения Г выбраны так, что достигается минимум r0(Г), называется оптимальным приёмником по критерию минимального риска. Часто этот критерий называют байесовским или критерией Байеса. Для его использования требуется знать априори: а) матрицу потерь , ; б) априорное распределение вероятностей источника {Pi}, ;  в) свойство канала связи для оценки переходных вероятностей . В зависимости от полноты этих сведений различают другие критерии, вытекающие из байесовского.

Критерий идеального наблюдателя получается из (16.1), если взять  и  при . Тогда получаем

                    .         (16.2)

В этом случае средний риск равен средней вероятности ошибочного решения. Приёмник, обеспечивающий минимум r1=pош (см. (6.2)), называется оптимальным приёмником по критерию минимума средней вероятности ошибки.

Критерий максимума апостериорной вероятности. Правило вынесения решения в этом случае основывается на анализе следующего распределения вероятностей , где

                                 (16.3)

- апостериорная вероятность того, что передавался сигнал Si(t), при условии, что на входе приёмника наблюдается сигнал . В (16.3)  - условная ФПВ принятого сигнала при передаче сигнала Si(t).

Если при передаче любого сигнала Si(t) выносится решение, что передавался тот, для которого максимальна апостериорная вероятность (16.3), то для реализации  вероятность правильного решения pпр=1-pош максимальна. Приёмник, принимающий решение о переданном сигнале по максимуму апостериорной вероятности называют также оптимальным приёмником Котельникова.

 

       16.2 Синтез алгоритмов и схем оптимальных приёмников, корреляционный приёмник, приёмник с согласованным фильтром

 

Оптимальный приёмник Котельникова.

Рассмотрим работу оптимального приёмника, работающего по критерию максимума апостериорной вероятности (16.3). Структурная схема такого приёмника приведена на рисунке 16.1.

Рисунок 16.1

 

Здесь в блоках под номерами 0, 1, 2,… mа-1, на основе априорных сведений о передаваемых сигналах и статистических свойствах используемого канала связи по реализации принятого сигнала  оцениваются апостериорные вероятности  . Затем в блоке сравнения (БС) выносится решение о том, что передавался тот сигнал Sj , для апостериорной вероятности которого справедливо неравенство  

                       .                     (16.4)  

Операцию интегрирования входного сигнала с предварительным взвешиванием называют фильтрацией. С учётом этого приёмник, работающий согласно, состоит из двух блоков: первый блок – это линейный фильтр, который в данном случае называют оптимальным активным фильтром; второй блок – нелинейное пороговое устройство (двухуровневый квантователь).

Приемник на согласованных фильтрах.

Скалярное произведение между наблюдаемым случайным процессом Z(t) и опорным сигналом Si(t) можно вычислить не только при помощи коррелятора, но и на основе пассивного линейного фильтра с постоянными параметрами. Среди таких фильтров будем рассматри­вать согласованные фильтры, которые обладают такой передаточной функцией K(), что в момент времени t=T, т. е. при снятии отсчета отношение сигнал/шум на их выходе является максимальным.

Найдем выражение для передаточной функции K() согласованного фильтра. Пусть S() — комплексный спектр сигнала на входе фильтра, тогда спектр на выходе определяется произведением, S()*K().  Используя об­ратное преобразование Фурье, запишем выходной сигнал в момент времени t=t0:

                                                       (16.5)

Пусть помехой является белый шум n(t), энергетиче­ский спектр которого является равномерным на всех час­тотах G(ω) = No/2. Спектр шума на выходе фильтра опре­деляется выражением:

                                                                          (16.6)

Используя теорему  Винера-Хинчина,  запишем дис­персию помехи на выходе фильтра:

                           (16.7)

Тогда отношение сигнал/шум в момент времени сня­тия отсчета t=t0 будет иметь следующий вид:

                                (16.8)

 

Чтобы найти значение K(), при котором величина q в момент t=t0 является максимальной, воспользуемся известным неравенством Буняковского-Шварца:                 

                                                                                                                 (16.9)

где x(f),y(f)-любые комплексные функции. При этом
знак равенства имеет место только в том случае, когда
x(f)-Cy(f), С = const, У(f) функция, комплексно сопряженная  y(f). Положим теперь

                              (16.10)

Тогда после подстановки получим

                                                                                                                (16.11)

Из полученного соотношения видно, что максимум величины q на выходе фильтра не зависит от формы сиг­нала, а целиком определяется отношением энергии сигнала к спектральной плотности мощности шума. Данная величина q максимизируется, если передаточная функция фильтра равна

                                                                              (16.12)           

где С — некоторая постоянная, характеризующая усиление фильтра, S() функция, комплексно сопряжен­ная со спектральной плотностью сигнала, поступающего на вход фильтра.

Запишем спектральную плотность входного сигнала и передаточную функцию фильтра в виде

(16.13)

                                                                                                                   (16.14)

 

17 Лекция 17.  Приёмник с согласованным фильтром

 

Цель лекции: оОзнакомление c приёмником с согласованным фильтром и анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов.

Содержание:

       а) приёмник с согласованным фильтром;

       б) анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов.

 

17.1 Приёмник с согласованным фильтром (продолжение)

 

Видно, что амплитудно-частотная характеристика со­гласованного фильтра пропорциональна амплитудно-частотному спектру входного сигнала. Фазочастотная характеристика равна сумме фазочастотного спектра сигнала, взятого с обратным знаком, и фазового спектра задержки   (-ωt0). Согласованный фильтр пропускает частотные составляющие спектра, которые дают наи­больший вклад в энергию сигнала, и, наоборот, не про­пускает составляющие, где преобладает помеха. Иными словами, согласованный фильтр выделяет наиболее ин­тенсивные участки спектра и еще больше ослабляет сла­бые участки. При этом форма сигнала на выходе фильтра изменяется. Однако это несущественно, так как задача фильтра состоит не в точном воспроизведении вида сиг­нала, а в получении максимума отношения сигнал/шум. Значительная роль при этом отводится фазочастотной характеристике фильтра, которая компенсирует все фазо­вые сдвиги спектральных составляющих входного сигна­ла. Таким образом, все составляющие сигнала в момент окончания посылки t = to, складываясь, дают пик выходного сигнала.

Определим теперь импульсную реакцию согласован­ного фильтра, учитывая, что она связанна с передаточной функцией посредством обратного  преобразования Фурье.

Заметим, что S*( ) = S(-), тогда после замены со на ω' = -ω получим:


                

                                    (17.1)

Последнее равенство следует из того, что входной сигнал связан с преобразованием Фурье с комплексной спектральной плотностью:

                                                       (17.2)

Таким образом, импульсная реакция согласованного фильтра g(t) - cS(t0 -t целиком определяется формой сигнала. Вид ее представлен на рисунке, где для упроще­ния положено С = 1.

Рисунок  17.2 - Импульсная реакция согласованного фильтра

 

На рисунке 17.2 показан сигнал S(f), появившийся в момент времени t0.  Ясно, что сигнал S(tо+t), появится раньше на время to, чем сигнал S(t). Функция S(tо-t) является зер­кальным отображением функции S(to+t) относительно оси ординат. Она и представляет собой вид импульсной реакции согласованного фильтра.

Отметим, что для физической реализуемости фильтра необходимо и достаточно, чтобы g(t) = 0 при t < 0. Для финитных сигналов, поступающих на вход фильтра в момент t = 0 и заканчивающихся в момент времени Т со­гласованные фильтры вполне реализуемы, если постоянная времени tо (момент снятия отсчета ) удовлетворяет условию:

                                              t0 +T>0 или t0 <Т.

Отсюда видно, что момент снятия отсчета, совпадает с моментом окончания посылки сигнала.

Укажем основные свойства согласованных фильтров:

1.  Среди всех возможных линейных фильтров согла­сованный фильтр позволяет получить на выходе макси­мально возможное значение величины отношения энер­гии элемента сигнала к спектральной плотности мощно­сти шума q = 2E/N0. Причем это значение не зависит от формы сигнала. Это свойство было принято выше за оп­ределение согласованных фильтров.

2.   Согласованный   фильтр  инвариантен  (инвариант­ность — независимость) относительно момента времени поступления  сигнала,  т. е.   времени  задержки.   Иными словами для этого фильтра безразлично, когда на его вход поступит сигнал. В любом случае, если он согласо­ван по форме, на выходе фильтра будем иметь максимум отношения сигнал/помеха. В отличие от этого корреля­тор не инвариантен к задержке и для максимизации сиг­нала на его выходе необходимо иметь точную тактовую синхронизацию. Заметим, что напряжения на выходах обоих устройств совпадают только в момент окончания посылок сигнала. В остальные моменты они различны.

3.  Согласованный фильтр является устройством, кото­рое вычисляет функцию взаимной корреляции между принимаемым сигналом   U(t) и опорным  (ожидаемым, эталонным) сигналом S,(t), i =1,M . Выходное напряже­ние U(to) согласованного фильтра, как и для любого ли­нейного устройства.

Это и есть не что иное, как с точностью до постоянно­го множителя С функция взаимной корреляции (Сравни­те со скалярным произведением, найденным выше).

Благодаря этому свойству оптимальный приемник может быть выполнен на базе согласованных фильтров, что показано на рис. 17.3.

 

Рисунок 17.3 - Реализация оптимального по Котельникову приемника

                         на согласованных фильтрах

 

Видно, что согласованный или пассивный фильтр в отличие от активного фильтра (коррелятора) заменяет сразу три элемента в приемнике — генератор опорного колебания, перемножители и интегратор. Казалось бы, схема стала проще, на самом деле трудности, возникаю­щие при реализации оптимальных приемников на согла­сованных фильтрах, оказываются весьма существенны­ми. Сложность заключается в том, что отсчет на выходе фильтра так же, как в корреляционном когерентном при­емнике, должен производиться «с точностью до начальной фазы». Однако при этом оказывается, что величина допустимой точности должна быть меньше, чем на выхо­де активного фильтра. В последнем достаточно, чтобы неточность была мала по сравнению с длительностью посылки сигнала, а при согласованной фильтрации она должна быть меньше, чем период высокочастотного за­полнения радиоимпульсов, поступающих на вход опти­мального приемника. Эти сложности соизмеримы с трудностями реализации когерентного опорного колеба­ния в активном фильтре.

 

17.2 Анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов

 

Полученные выше соотношения для вероятности ошибочного приема конкретизируем для двоичных сиг­налов с различными видами манипуляции. Рассмотрим наиболее часто применяемые сигналы с амплитудной, частотной, фазовой и относительно-фазовой манипуля­циями и рассчитаем их помехоустойчивость.

а) Амплитудно-манипулированные сигналы

В этом случае один из двоичных сигналов, например S\(f) - 0. Данную и подобные системы сигналов принято называть системой с пассивной паузой.Тогда принимае­мые сигналы могут быть описаны так:

                                  (17.3)

где Uc— амплитуда,  ω— круговая частота, φ — началь­ная фаза сигнала предполагаются полностью известными. В двумерном пространстве сигналы с амплитудной манипуляцией (AM) можно представить в виде вектора (рисунок 7.4, а).

 

 

 

 

Рисунок 17.4 - К определению эквивалентной энергии

AM, ЧМ и ФМ сигналов

Величина эквивалентной энергии AM сигналов равна

                                                                      (17.4)

Следовательно, вероятность ошибочного приема будет определяться соотношением

                                                  (17.5)

где h2 = e/n0  отношение энергии сигнала на входе при­емника к спектральной плотности мощности белого шума.

 

18 Лекция 18.  Различные методы приема сигналов

 

Цель лекции: ознакомление с различными видами модуляций и различными методами приема сигналов

Содержание:

      а) анализ помехоустойчивости систем связи с различными видами модуляций и различными методами приема сигналов;

      б) когерентный приемник ОФМ сигналов  (схема сравнения                          полярностей).

 

18.1 Фазоманипулированные сигналы

 

Так же как и ЧМ сигналы, фазоманипулированные сигналы являются системой сигналов с активной паузой, поскольку каждой реализации соответствует двоичный информационный символ «О» или «1». В простейшем случае ФМ сигнал образуют путем скачкообразного из­менения фазы несущего колебания на 180°. Получаю­щийся в результате сигнал представляет собой последо­вательность информационных двухполярных посылок, умноженных на гармоническое несущее колебание.

Таким образом, ФМ сигналы имеют вид

                                     (18.1)

отсюда видно, что S0(t) =-S0(t) называют противоположными. Их векторное представление пока­зано на рис. 7.3, в.

Видно, что среди всех рассмотренных сигналов фазо-манипулированные обладают наибольшим расстоянием между концами векторов в векторном пространстве. По­этому естественно ожидать, что они будут наиболее раз­личимыми и, соответственно, наиболее помехоустойчи­выми.

Эквивалентную энергию ФМ сигналов определить не­сложно:

                                                   (18.2)

Вероятность ошибки, следовательно, равна

                                                  (18.3)

                                                                                (18.4)

Если сравнить вероятности ошибок для ФМ, AM и ЧМ сигналов, то нетрудно видеть, что последние занимают промежуточное место между двумя первыми. При этом энергия при переходе от ФМ (противоположных) к ЧМ (ортогональным) сигналам увеличивается в два раза, что эквивалентно 3 дБ. Сравнение ЧМ и AM сигналов пока­зывает, что для обеспечения одинаковой верности прие­ма при использовании ЧМ сигналов потребуется энергии затратить в два раза меньше.

Несмотря на то что ФМ сигналы являются самыми помехоустойчивыми, практическая реализация их коге­рентного приема связана с серьезными трудностями, воз­никающими при формировании опорного (эталонного) колебания, синфазного с принимаемым сигналом.

Как известно, в спектре ФМ сигнала нет колебания не­сущей частоты fc, поэтому принимаемый сигнал нельзя применить для подстройки генератора опорного колеба­ния. Для восстановления несущей можно использовать нелинейные преобразования, основанные на методах, предложенных отечественными учеными А. А. Пистолькорсом (1933), В. И. Сифоровым (1935), а также американским специалистом Д. Костасом (1956). Известны и другие методы.

Рассмотрим метод Пистолькорса как наиболее про­стой. Вначале частота принимаемого колебания удваива­ется, что приводит к снятию манипуляции. Это следует из того, что при передаче So(t)Uc cos (ω ct+ φ) получаем колебание Uc cos2 (ωct+ φ), а при передаче S(t) = = Uc  cos (ωсt+ φ + π) соответственно — Uc cos2 (φct+ φ + π) = = Uc cos 2(ωсt+ φ).

После фильтрации, а затем деления частоты на два выделяется колебание с частотой/^ и ее малым уровнем помех, которое можно применить для подстройки опор­ного генератора. Однако здесь возникает принципиаль­ная сложность, вызванная неоднозначностью фазы после деления. С равной вероятностью фаза может принять значение 0° и 180°, что приводит к «обратной» работе, когда символы «О» принимаются как «1» и наоборот. Причем этот эффект практически не устраним, так как перескок фазы происходит случайно под воздействием помех в канале связи. Данный недостаток присущ всем без исключения методам, указанным выше. Поэтому ФМ сигналы в «классическом» варианте не применяются.

 

18.2    Сигналы с относительной фазовой манипуляцией

 

Сигналы с относительной фазовой манипуляцией (ОФМ) позволяют полностью устранить явление обрат­ной работы.

В этом случае, передаваемая информация вкладывает­ся не в абсолютное значение фазы каждой посылки сигнала, а определяется разностью фаз последующей и пре­дыдущей посылки. Данный способ передачи был пред­ложен отечественным ученым II. Г. Петровичем (1954) и заключается в том, что каждый информационный символ «О» передается повторением той реализации, которая яв­лялась предыдущим элементом, а символ «1» -  измене­нием реализации на противоположную.

Систему ОФМ сигналов можно рассматривать как со­четание кодирования и фазовой манипуляции. Иными словами, вначале производится «перекодирование» сим­волов uk = (0,1),k = 1,2,...

При этом посылка  ak  не несет информации, выбирает­ся произвольной и необходима лишь для начала процесса перекодирования. После этой операции осуществляется обычная ФМ, где в качестве управляющей (манипули­рующей) применяется перекодированная последователь­ность символов ak - (0,1), k = О,1...

 

в соответствии с правилом

 

 

Приемник полностью известных ОФМ сигналов реа­лизуется аналогично оптимальному когерентному при­емнику ФМ. Правда, отличие состоит в том, что перед принятием решения о переданном сигнале производится обратное перекодирование принимаемой последователь­ности

где +— знак сложения по модулю 2.

Эта операция реализуется путем сравнения напряже­ний принимаемой посылки с предыдущей, задержанной на время Г, равное длительности элемента сигнала. При совпадении полярностей сигналов принимается решение о передаче «О», в противном случае регистрируется символ «1». Данный вид приема принято называть методом сравнения полярностей. Схема устройства, его реа­лизующего, представлена на рисунок 18.1.

Рисунок 18.1 - Когерентный приемник ОФМ сигналов

Опорный тракт обычно выполняется по схеме Пистолькорса с делением, фильтрацией и умножением час­тоты на два. При этом в отличие от ФМ в данном случае скачок фазы не опасен, ошибочно будет зарегистрирован лишь один элемент, а остальные принимаются верно, при условии, что в канале отсутствуют помехи.

Оценим потенциальную помехоустойчивость коге­рентного приемника ОФМ сигналов в условиях аддитив­ного белого шума. Ошибка в приеме возникает при усло­вии, что k посылка принята неверно, а (k-1)-я - - пра­вильно, либо наоборот. Поскольку в рассматриваемом случае ошибки возникают независимо, вероятность каж­дого из сочетаний этих событий равна рфм(1-рфм), где рфм — вероятность ошибочного приема ФМ сигналов. Окончательно вероятность ошибки приема ОФМ сигна­лов имеет вид:

 

 

 

19 Лекция 19.  Многоканальная связь

 

Цель лекции: ознакомление с системами многоканальной связи.

Содержание:

а)  Многоканальная связь;   

б) Методы частотного, временного и фазового  разделения сигналов.

 

19. Многоканальная связь

 

Высокая стоимость линий связи обуславливает разработку систем и методов, позволяющих одновременно передавать по одной линии связи большое число независимых сообщений, т.е. использовать линию многократно. Такие системы связи называют многоканальными. Связь, осуществляемую с помощью этих систем, принято называть многоканальной. Практически все современные системы связи за редким исключением являются многоканальными.

Функциональная схема простейшей системы многоканальной связи с разделением каналов по частоте представлена на рисунке 19.1.

.

Рисунок 19.1 -  Функциональная схема системы многоканальной связи    

                    

         19.1 Методы частотного, временного и фазового  разделения сигналов

19.1.1 Частотное разделение сигналов.

Канальные сигналы при частотным разделении передаются одновременно, но занимают практически неперекрывающиеся полосы частот. Операция разделения группового сигнала на канальные в приемном устройстве осуществляется полосовыми фильтрами с неперекрывающимися полосами пропускания. Частотное разделение не требует в принципе временной синхронизации, поэтому оно относится к классу асинхронных методов.

Ограниченная длительность передаваемых сигналов и не идеальность канальных фильтров приводят к появлению так называемых взаимных помех.

Уровень этих помех уменьшают, вводя защитные частотные интервалы между отделенными каналами. При многоканальной телефонной связи это приводит к тому, что только около 80% полосы пропускания линии связи используется для передачи непосредственно сообщений, а 20% полосы отводится на защитные интервалы.

В зарубежных источниках для обозначения принципа частотного разделения каналов (ЧРК) используются термины Frequency Division Multiplexing (FDM) и Frequency Division Multiply Access (FDMA).

Смысл частотного способа разделения каналов, всякая реальная линия связи обладает ограниченной полосой пропускания, то при многоканальной передаче каждому отдельному каналу отводится определенная часть общей полосы пропускания. На приемной стороне одновременно действуют сигналы всех каналов, различающиеся положением их частотных спектров на шкале частот. Чтобы без взаимных помех разделить такие сигналы, приемные устройства должны содержать частотные фильтры. Каждый из фильтров должен пропустить без ослабления лишь те частоты, которые принадлежат сигналу данного канала; частоты сигналов всех других каналов фильтр должен подавить. На практике это невыполнимо. Результатом являются взаимные помехи между каналами. Они возникают как за счет неполного сосредоточения энергии сигнала канала в пределах заданной полосы частот, так и за счет неидеальности реальных полосовых фильтров.

 

 19.1.2. Временное разделение каналов.

 

Канальные сигналы при временном разделении передаются в общей полосе частот, но поочередно во времени. Два синхронно и синфазно работающих коммутатора последовательно во времени подключают канал к источнику и получателю сообщения. Такой метод разделения относится к классу синхронных методов.

Ограниченность отведенной системе полосы частот, а также не идеальность синхронизации приводят к появлению взаимных помех каналов. Уровень этих помех уменьшают, вводя защитные временные интервалы между каналами, что приводит либо к расширению спектра группового сигнала (при неизменном числе каналов), либо к уменьшению числа каналов (при фиксированной ширине спектра группового сигнала).

Благодаря последовательной передаче канальных сигналов, нелинейность вольт-амперной характеристики группового тракта не создает взаимных помех между каналами. Для неискаженного воспроизведения на приеме передаваемого аналогового сигнала (например, речевого) интервал между его соседними отсчетами T на передаче должен удовлетворять требованиями теоремы Котельникова T≤1/2Fm (Fm – максимальная частота в спектре канального сигнала).

 Принцип временного разделения каналов (ВРК) состоит в том, что групповой тракт предоставляется поочередно для передачи сигналов каждого канала многоканальной системы, что представлено рисунке 19.2. В зарубежных источниках для обозначения принципа временного разделения каналов применяются термины Time Division Multiplexing (TDM) и Time Division Multiply Access (TDMA).

Рисунок 19.2 - Иллюстрация принципа временного разделения каналов

При передаче используется дискретизация во времени. Сначала передается импульс 1-го канала, затем следующего канала и так до последнего канала с номером N, после чего опять передается импульс 1-го канала и процесс повторяется периодически. На приеме устанавливается аналогичный коммутатор, который поочередно подключает групповой тракт к соответствующим приемникам. В определенный короткий промежуток времени к групповой линии связи оказывается подключена только одна пара приемник/передатчик. Это означает, что для нормальной работы многоканальной системы с ВРК необходима синхронная и синфазная работа коммутаторов на приемной и передающей сторонах. Для этого один из каналов занимают под передачу специальных импульсов синхронизации.

 

19.1.3.Фазовое разделение сигналов.

 

Канальные аналоговые сигналы при фазовом  разделении передаются одновременно, имеют одинаковые несущие и занимают общую полосу частот. Несущие сигналов имеют различные начальные фазы, а информация содержится в изменении их амплитуд. На одной несущей частоте можно получить только два линейно независимых сигнала; при этом сдвиг фаз между несущими частотами сигналов составляет 90°.

Операция разделения линейного сигнала на канальные в приемном устройстве осуществляется с помощью двух синхронных (фазовых) детекторов, опорные колебания на которые подаются с фазовым сдвигом, равным 90°.

20 Лекция 20. Методы многоканальной связи

 

Цель лекции: ознакомление с системами многоканальной связи.

Содержание:

      а) Разделение сигналов по форме;

      б) Комбинационное разделение;

      в) Цифровые методы передачи непрерывных сообщений.

 

      20.1 Разделение сигналов по форме

 

Для разделения сигналов могут использоваться не только такие очевидные признаки, как частота, время и фаза. Наиболее общим признаком является форма сигналов. Различающиеся по форме сигналы могут передаваться одновременно и иметь перекрывающиеся частотные спектры и тем не менее такие сигналы можно разделить, если выполняется условие их ортогональности. Пусть в качестве переносчиков выбраны импульсы, последовательность которых образует, например, степенной ряд.

В предположении, что информация содержится в коэффициентах с0, с1…, для группового сигнала запишем

                                      s(t)=c0t0 + c1t + …+ cNtN.                                (20.1)

Члены ряда линейно независимы и, следовательно, ни один из канальных сигналов cktk не может быть образован линейной суммой всех других сигналов. Это легко понять, обратив внимание на то, что многочлен от t может быть равен нулю только в том случае, когда все его коэффициенты равны нулю.

Взаимные помехи при таком методе разделения возникают из-за неидеальности устройств формирования канальных функций. На практике метод разделения каналов по форме сигналов нашёл широкое применение в так называемых асинхронных адресных системах связи (ААСС).

 

20.2 Комбинационное разделение

 

При комбинационном методе разделения групповой сигнал не является просто суммой начальных сигналов, а представляет собой отражение определенной комбинации канальных сообщений. При этом задача сводится к передаче чисел, определяющих номер комбинации; эти числа могут быть переданы любыми сигналами. На практике наибольшее применение нашли системы двойного частотного телеграфирования (ДЧТ) и двойного фазового телеграфирования (ДФТ).

Так, при ДЧТ в двухканальной системе передачи двоичных сообщений, различным комбинациям символов в двух каналах соответствует передача сигналов на одной из четырёх частот: f1, f2, f3, f4.

На приеме восстановление канальных символов по принятому сигналу происходит с помощью дешифратора.

В такой системе с увеличением числа частот занимаемая полоса частот увеличивается экспоненциально с ростом числа каналов, а вероятность ошибки растёт существенно медленнее.

Если же числа кодировать значениями начальных фаз передаваемых сигналов (многократная дискретная фазовая модуляция), то с ростом числа каналов полоса частот практически не увеличивается, а вероятность ошибки резко возрастает.

Широкое применение находит двукратная относительная фазовая телеграфия (ДОФТ) для передачи двух двоичных синхронных сообщений на одной несущей.

 

20.3 Цифровые методы передачи непрерывных сообщений

 

В последние годы успешно развиваются цифровые методы разделения сигналов по их форме. В частности, в качестве переносчиков различных канальных сигналов используются дискретные ортогональные последовательности в виде функций Уолша, Радемахера и др. широкие развитие методов разделения сигналов по форме привело к созданию систем связи с разделением «почти ортогональных» сигналов, представляющих собой псевдослучайные последовательности, корреляционной функции и энергетические спектры которых близки к аналогичным характеристикам «ограниченного» белого шума. Такие сигналы называют шумоподобными (ШПС). Основной характеристикой ШПС является база сигнала B, определяемая как произведение ширины его спектра F на его длительность T.

В зарубежных источниках для обозначения данного принципа применяется понятие кодового разделения каналов – Code Division Multiply Access (CDMA).

 

20.4 Аналого-цифровые и цифро-аналоговые преобразователи

 

Устройства, в целом выполняющее преобразования аналоговых сигналов в цифровые и обратно, называются соответственно аналого-цифровыми и цифро-аналоговыми преобразователями (АЦП и ЦАП).

 

 

 

 


Рисунок 20.1 - Структурная схема ЦАП

 Рассмотрим принцип работы ЦАП (рисунок 20.1). Цифровой сигнал в двоичном коде подается на буферный регистр RG. К выходам регистра RG подключены управляющие входы электронных ключей. К каждому из ключей подключены резисторы с сопротивлениями, соответствующими числу шагов квантования каждого из разрядов кодового слова цифрового сигнала. В зависимости от кодовой комбинации, т.е. включения и выключения соответствующих ключей, на входе ФНЧ будет присутствовать соответствующее напряжение. Смена кодовых комбинаций приведет к образованию на входе ФНЧ ступенчатого сигнала. ФНЧ выделяет исходный аналоговый сигнал.

Возможно построение АЦП на основе ЦАП. Схема такого АЦП показана на рисунок 20.2. Аналоговый сигнал поступает на вход устройство выборки и хранения (УВХ), где подвергается дискретизации, т.е. преобразуется в сигнал АИМ. Этот сигнал поступает на один из входов схемы сравнения (СС), которая представляет собой компаратор, сравнивающий значения аналоговых сигналов на своих входах. Если значение сигнала на первом входе СС больше, чем на втором, то на входе СС будет присутствовать сигнал логической 1, в противном случае – логического 0.   ко второму входу СС подключен аналоговый выход ЦАП.

Цифровые входы ЦАП подключены к порту вывода управляющего устройства (УУ), например микропроцессора. К порту ввода УУ подключен цифровой вход СС. Процесс квантования по уровню протекает следующим образом. Отсчет сигнала с выхода УВХ постоянно присутствует на нижнем по схеме входе СС. Устройство управления выполняет алгоритм приближения к данному значению, например, методом «золотого сечения». Сначала определяется значение старшего разряда кодового слова и далее до самого младшего. После определения самого младшего разряда схема готова к обработке следующего отсчета. Скорость работы схемы, т.е. частота дискретизации, зависит от скорости работы УУ и скорости преобразования ЦАП.                                                                                                                                                        

                              

 

 

 

 

 

 

   Рисунок 20.2 -  Структурная схема АЦП

 21 Лекция 21.  Цифровые методы модуляции

 Цель лекции: ознакомление с цифровыми методами модуляции.

Содержание:

      а) Дискретизация по времени и квантования;

       б) Импульсная - кодовая модуляция (ИКМ)-модуляция, дифференциальная ИКМ;

      в) Структура кадров ИКМ-30.

  21.1 Дискретизация по времени и квантования

 Формирование цифрового сигнала из аналогового предусматривает последовательное выполнение трех основных операций:

- дискретизацию аналогового сигнала по времени, в результате чего формируется импульсный сигнал, промодулированный по амплитуде, т.е. АИМ сигнал;

- квантование АИМ сигнала по уровню;

- кодирование отсчетов АИМ сигнала.

В цифровых системах передачи (ЦСП) формируется групповой цифровой сигнал, иначе называемый сигналом импульсно-кодовой модуляции (ИКМ сигналом). При формировании группового сигнала добавляется еще одна операция: перед квантованием по уровню производится объединение индивидуальных АИМ сигналов (рисунок 8.5.)

Рисунок 21.1 - Схема преобразования аналогового сигнала

в цифровой ИКМ сигнал

В ЦСП соответствующие операции обработки производятся отдельными устройствами. Операции квантования и кодирования в ЦСП обычно объединяют в одном устройстве.

В процессе формирования АИМ сигнала осуществляется дискретизация непрерывного сигнала во времени в соответствии с известной теоремой дискретизации (теоремой В.А. Котельникова): любой непрерывный сигнал, ограниченный по спектру верхней частотой Fв полностью определяется последовательностью своих дискретных отсчетов, взятых через промежуток времени Tд=1/2Fв называемой периодом дискретизации. В соответствии с ним частота дискретизации, т.е. следования дискретных отсчетов, выбирается из условия Fд≥2Fв.

В процессе квантования по уровню значение каждого АИМ отсчета заменяется ближайшим разрешенным значением.

Характеристиками квантующего устройства являются:

- число уровней квантования Nкв;

- шаг квантования - разность между двумя соседними разрешенными уровнями;

- напряжение ограничения Uогр – максимальное значение амплитуды отсчета, подвергаемого квантованию.

Если =const, то квантование называют равномерным.

При квантовании возникает так называемый шум квантования, мощность которого определяется выражением Pш.кв=2/12.защищенность от шумов квантования определяется как Аз.кв=10 lg(Pс/Pш.кв) где Рс- мощность сигнала.

Если входное напряжение выше порогового, на входе квантователя формируются отсчеты с амплитудой Uогр. Такой режим работы квантователя называется перегрузкой. При этом возникают шумы ограничения, мощность которых значительно превышает мощность шумов квантования. Необходимо применять специальные меры, предотвращающие перегрузку квантователя.

 

21.2 Импульсная - кодовая модуляция (ИКМ)-модуляция, дифференциальная ИКМ

Передача непрерывных сигналов с помощью ИКМ имеет ряд достоинств. Сигналы ИКМ – цифровые, поэтому их легко усиливать, преобразовывать, совершать над ними логические и арифметические операции с помощью цифровых микросхем. Применение ИКМ позволяет решить вопросы унификации и стандартизации аппаратуры. Сигналы ИКМ можно регенерировать, т.е. частично искажение в КС импульсы можно восстановить в регенераторе промежуточной станции радиорелейной системы и вновь передать к следующему приёмопередатчику. При этом устраняется эффект накопления шумов и повышаются помехоустойчивость и дальность действия системы.

К недостатку ИКМ следует отнести существенное расширение его полосы частот по сравнению с полосой частот сообщения. Если сообщение имеет полосу частот F, то ширина спектра ИКМ сигнала равна

                          

                             Δ fикмикм=2•Flog2L .                                              (21.1)    

 

В системах электросвязи наряду с ИКМ применяют дифференциальную ИКМ (ДИКМ), дельта – модуляцию (ДМ) и другие методы цифровой передачи. ДИКМ и ДМ, обладая достоинствами ИКМ, обеспечивают меньшую полосу частот, занимаемую этими сигналами при передаче того же сообщения.

В ДИКМ квантованию и кодированию подлежат не мгновенные значения сообщения ак (как при ИКМ), а значение разности εккк,пр между ак и их предсказанным значениями, формируемыми фильтром-  предсказателем на основе следующего линейного соотношения

 

                     ак, пр =                                               (21.2)

Параметры е}, l= фильтра – предсказателя определяются значениями функции корреляции сообщения Ra (tk, te) и находятся путём минимизации СКП предсказания [aкк, пр]2 из системы линейных уравнений

 

                       (tk-te)=R(tk)/αe=αopt, k=                                 (21.3)

Отличие ДМ от ДИКМ состоит в том, что при ДМ квантователь двухуровневый (LDM=2), а частота дискретизации больше частоты Котельникова в два, три раза. При ДИКМ, как и при ИКМ, частоты дискретизации определяются частотой Котельникова, но LDИКM <  LИКM при L>2.

          21.3 Структура кадров ИКМ-30

         Рассмотрим структуру кадра передачи ЦСП ИКМ-30. Данный поток называется первичным цифровым потоком и организуется объединением 30-ти информационных ОЦК.      Канальные интервалы КИ1-КИ15, КИ17-КИ31 отведены под передачу информационных сигналов. КИ0 и КИ16 - под передачу служебной информации. Интервалы КИ0 в четных циклах предназначаются для передачи циклового синхросигнала (ЦСС), имеющего вид 0011011 и занимающего интервалы Р2 - Р8. В интервале Р1 всех циклов передается информация постоянно действующего канала передачи данных (ДИ). В нечетных циклах интервалы P3 и Р6 КИ0 используются для передачи информации о потере цикловой синхронизации (Авар. ЦС) и снижении остаточного затухания каналов до значения, при котором в них может возникнуть самовозбуждение (Ост. зат). Интервалы Р4, Р5, Р7 и Р8 являются свободными, их занимают единичными сигналами для улучшения работы выделителей тактовой частоты. В интервале КИ16 нулевого цикла (Ц0) передается сверхцикловой синхросигнал вида 0000 (Р1 - Р4), а также сигнал о потере сверхцикловой синхронизации (Р6 - Авар. СЦС). Остальные три разрядных интервала свободны. В канальном интервале КИ16 остальных циклов (Ц1 - Ц15) передаются сигналы служебных каналов СК1 и СК2, причем в Ц1 передаются СК для 1-го и 16-го каналов ТЧ, в Ц2 - для 2-го и 17-го и т.д. Интервалы Р3, Р4, Р6 и Р7 свободны.

  

Содержание

Введение.....................................................................................................    3

1   Лекция 1 .Сигнал, информация и сообщение............................................ 5

2   Лекция 2. Дискретный канал без помех..................................................... 8

3   Лекция 3. Дискретный канал с помехами..............................................     12

4   Лекция 4. Дискретный канал передачи информации с помехами..........    15

5   Лекция 5. Принципы дискретизации и восстановление информации....    19

6   Лекция 6. Непрерывный канал................................................................... 22

7   Лекция 7. Методы формирования и преобразования сигналов в
системах связи................................. ..........................................................    25

8   Лекция 8. Фазовая модуляция.................................................................... 30

9   Лекция 9. Импульсная модуляция...........................................................    34

 

10        Лекция 10. Теория помехоустойчивого кодирования............................. 38

11 Лекция 11. Помехоустойчивые корректирующие коды.... ..................... 42

12 Лекция 12. Коды обнаруживающие ошибки............................................ 45

13 Лекция 13. Коды Хэмминга, коды Рида-Соломона, код Голея и
непрерывные коды....................................................................................     49

14        Лекция 14. Циклические коды...............................................................    52

15 Лекция 15. Методы построения циклических кодов............................    56

16        Лекция 16. Теория помехоустойчивых систем.....................................    59

17        Лекция 17. Приемник с согласованным фильтром.................................. 63

18 Лекция 18. Различные методы приема сигналов..................................... 67

19        Лекция 19. Многоканальная связь,.......................................................... 70

20        Лекция 20. Методы многоканальной связи..........................................    73

21        Лекция 21. Цифровые методы модуляции............................................    76

Список литературы.................................................................................... .. 79