Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Теория радиосвязи

Покупка
Артикул: 770367.01.99
Доступ онлайн
220 ₽
В корзину
Рассматриваются общие положения статистической теории передачи сигналов. Вводятся математические модели сигналов и помех, описаны основные преобразования, которым подвергаются сигналы в процессе их передачи и приема. Рассмотрены базовые элементы устройств, осуществляющих указанные преобразования. Рассмотрены также базовые методы аналоговой и цифровой модуляции, используемые в современных системах передачи информации. Большое внимание уделено вопросам кодирования сигналов: для сокращения избыточности или для повышения помехозащищенности. Освещены методы приема сигналов в когерентных и некогерентных системах связи при наличии шума, а также в условиях многолучевости. Дан анализ методов многостанционного доступа с частотным, временным и кодовым разделением каналов. Определены принципы обмена информацией в телекоммуникационных сетях. Для студентов высших учебных заведений, обучающихся по направлению подготовки (специальность) - 11.04.01 - "Радиотехника". Магистерская программа подготовки: «Радиоэлектронные устройства передачи информации». Форма обучения - очная.
Акулиничев, Ю. П. Теория радиосвязи : учебное пособие / Ю. П. Акулиничев, А. С. Бернгардт. - Томск : Томский государственный университет систем управления и радиоэлектроники, 2015. - 197 с. - Текст : электронный. - URL: https://znanium.com/catalog/product/1850325 (дата обращения: 28.03.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
1 

 

МИНИСТЕРСТВО ОБРАЗОВАНИЯ  И  НАУКИ  РФ 

Федеральное государственное бюджетное образовательное учреждение выс
шего профессионального образования 

ТОМСКИЙ  ГОСУДАРСТВЕННЫЙ  УНИВЕРСИТЕТ  СИСТЕМ  УПРАВЛЕНИЯ  И 

РАДИОЭЛЕКТРОНИКИ  (ТУСУР) 

 

КАФЕДРА РАДИОТЕХНИЧЕСКИХ СИСТЕМ (РТС) 

 
 
 
 
 
 
 
 

Ю.П. Акулиничев, А.С. Бернгардт 

 

ТЕОРИЯ РАДИОСВЯЗИ 

 
 
 
 
 

Учебное пособие 

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Томск 2015 

Ю.П. Акулиничев, А.С. Бернгардт 

ТЕОРИЯ РАДИОСВЯЗИ: Учебное пособие. –Томск: 2015. -197С . 

 

Рассматриваются общие положения статистической теории передачи 

сигналов. Вводятся математические модели сигналов и помех, описаны основные преобразования, которым подвергаются сигналы в процессе их передачи и приема. Рассмотрены базовые элементы устройств, осуществляющих 
указанные преобразования. Рассмотрены также базовые методы аналоговой и 
цифровой модуляции, используемые в современных системах передачи информации. Большое внимание уделено вопросам кодирования сигналов: для 
сокращения избыточности или для повышения помехозащищенности. Освещены методы приема сигналов в когерентных и некогерентных системах связи при наличии шума, а также в условиях многолучевости. Дан анализ методов многостанционного доступа с частотным, временным и кодовым разделением каналов. Определены принципы обмена информацией в телекоммуникационных сетях.  

Для студентов высших учебных заведений, обучающихся по направлению 
подготовки (специальность) –    11.04.01 — "Радиотехника". 
Магистерская программа подготовки: «Радиоэлектронные устройства передачи информации». 

Форма обучения – очная 

 

ОГЛАВЛЕНИЕ 

ВВЕДЕНИЕ………………..….………………………………….…………..
5

1

2

Математические модели сигналов и помех …….….
1.1 Информация и сигналы…………………….…..………………...........
1.2 Цифровые сигналы..…………………………...………………............
1.3 Дискретные сигналы..……………………...………………...………..
1.4 Непрерывные сигналы..…………………...……………………..…....
1.5 Аддитивные и мультипликативные помехи..…..............................…
1.6 Методы аналитического и геометрического  представления сигналов и помех..………………..………………………………………..
ПРЕОБРАЗОВАНИЯ СИГНАЛОВ ………..………………………….
2.1 Модель системы передачи информации..……...…………………….
2.2 Элементы преобразователей..……………..………………………….
2.3 Преобразование неэлектрических сигналов в электрические..…….
2.4 Квантование по времени непрерывного сигнала...………………….
2.5 Модуляция импульсной несущей дискретным сигналом..…....……
2.6 Аналого-цифровое и цифроаналоговое преобразования..……….….
2.7 Линейная цифровая фильтрация и генерирование
последовательностей символов.………………...……………………….

7
7
9
12
14
15

18
24
24
30
31
32
36
37

40

3

4

5

6

7

2.8 Модуляция гармонической несущей цифровым сигналом..………..
2.9 Корреляционный прием и согласованная фильтрация..…………….
2.10 Модуляция гармонической несущей непрерывным сигналом..…..
2.11 Каналы передачи сигналов...…………………………………….…..
2.12 Последовательный и параллельный способы передачи..………….
2.13 Статистический синтез цифровой системы
передачи информации ……………………………………………………
КОДИРОВАНИЕ КАНАЛА …………………………………………...
3.1 Корректирующие коды …………………………………...……..……
3.2 Линейные блочные коды ………………………..…………………....
3.3 Коды Xэмминга …………………………………..…………………...
3.4 Циклические коды ………………………………….............................
3.5 Декодирование в СПИ с каналом переспроса …………….……...…
3.6 Свёрточные коды …………………………..…………………………
3.7 Перемежение символов ………………………………………………
3.8 Комбинирование кодов ……………………………….………….…...
КОДИРОВАНИЕ ИСТОЧНИКА ….……………………………….....
4.1 Собственная информация и избыточность (цифровые сигналы) ….
4.2 Кодирование источника ……………………….………………...……
4.3 Взаимная информация ……………………………………….….…....
4.4 Пропускная способность канала и теоремы о кодировании в
цифровом канале с помехами ….............................................................
4.5 Пропускная способность непрерывного канала с шумом …..……...
ДЕМОДУЛЯЦИЯ ЦИФРОВЫХ СИГНАЛОВ 
.....................................
5.1 Роль априорной информации…………………………………….…...
5.2 Когерентные системы ……………………………….............………..
5.3 Некогерентные системы..………………………………………….….
5.4 Частично-когерентные системы………….……………………….….
5.5 Прием сигнала в условиях многолучевости…………………….…...
5.6 Регенерация цифрового сигнала в ретрансляторах…………….……
5.7 Особенности СПИ, в которых применяется помехоустойчивое 
кодирование ……………………...…………..........................................…
МНОГОКАНАЛЬНАЯ ПЕРЕДАЧА И МНОГОСТАНЦИОННЫЙ 
ДОСТУП …………………….…………………………………………..
6.1 Методы многостанционного доступа ……………………………...
6.2 Многостанционный доступ с частотным разделением каналов.…...
6.3 Многостанционный доступ с временным разделением каналов   …
6.4 Многостанционный доступ с кодовым разделением каналов…...…
6.5 Синхронизация в СПИ с многостанционным доступом....………....
6.6 Расширение спектра сигнала………………………………………….
ПРИНЦИПЫ ПОСТРОЕНИЯ СЕТЕЙ ЭЛЕКТРОСВЯЗИ………....

44
51
52
54
57

59
64
64
67
74
76
84
86
89
91
94
94
98
104

106
110
114
114
116
122
124
127
131

133

138
138
141
144
147
149
154
159
159

7.1 Определения, классификация, структуры сетей…………………….
7.2 Коммутация каналов и коммутация пакетов.………………………..
7.3 Центры коммутации…………..…..………………………………..….
7.4 Дейтаграммный метод передачи и передача с предварительным
установлением соединения…………………..…
7.5 Элементы теории телетрафика…………………………….…...….….

160
164

169
173

ЗАКЛЮЧЕНИЕ…..……………………………………………………...….
ЛИТЕРАТУРА………………………………..…..........................................
ПРИЛОЖЕНИЯ……………………..…………………...............................
УСЛОВНЫЕ ОБОЗНАЧЕНИЯ И СОКРАЩЕНИЯ 
ГЛОССАРИЙ ……………………………………………………………….

180
181
183
189
190

 
 

ВВЕДЕНИЕ 

 

Считается, и не без оснований, что XXI век – это век информатизации. 

Поэтому знание фундаментальных закономерностей и методов передачи, 
преобразования и хранения информации для современного человека необходимо не менее чем знание основных законов физики, химии и других естественных наук. В подтверждение достаточно лишь отметить, что вся электронная аппаратура создается для передачи и обработки сигналов, несущих 
информацию. Исключения настолько редки, что придется хорошо подумать, 
чтобы привести хотя бы 2-3 соответствующих примера. 

Системы передачи информации (СПИ) являются одной из самых дина
мичных отраслей мировой экономики. В указанных системах, особенно цифровых, воплощены практически все новейшие достижения науки и технологии, применяемые и в других радиотехнических системах. Нет ничего удивительного, что книги, содержащие более или менее связное описание лишь 
основных методов, имеют весьма солидный объем [1–3 и др.]. 
Данное учебное пособие предназначено для первого ознакомления с курсом 
«ТЕОРИЯ РАДИОСВЯЗИ». Главная цель, которая преследовалась при выборе способа подачи материала, – это максимальная доступность иногда даже в 
ущерб строгости и полноте освещения отдельных вопросов. Если у читателя 
сложится цельное представление о предмете, о назначении и взаимосвязи 
применяемых методов, это будет хорошей базой для более детального изучения избранных тем по другой учебной и научной литературе. 

Чтобы материал, представленный в книге, не воспринимался как про
стой набор фактов, необходимо подчеркнуть следующее. 

Во-первых, начальный этап любого исследования, зачастую требую
щий наибольшей квалификации, – это систематизация и количественное описание того, что известно об объекте исследования. Для СПИ это означает 
разработку математических моделей сигналов и помех. Поэтому нет смысла 
приступать к изучению курса, не вспомнив хотя бы основные понятия теории 
вероятностей и теории электрических цепей и сигналов. 

Во-вторых, прием сигналов всегда требует вынесения серии решений в 

условиях частичной неопределенности. Поэтому нужно осознать, что не 
каждое из этих принятых решений оказывается правильным, поэтому при 
выборе методов передачи и приема стремятся к тому, чтобы доля удачных 
решений была максимальной. 

В-третьих, улучшение одних характеристик СПИ неизбежно сопро
вождается ухудшением других, поэтому никогда нельзя рассматривать лишь 
одну сторону медали. Таким образом, проектирование СПИ и ее элементов 
сводится к количественному обоснованию цепи компромиссных вариантов. 

В теории СПИ очень широко используются различные математические 

методы. Хотя следует признать, что количество основных идей не так уж ве
лико. Поэтому за всеми математическими выражениями не мешало бы прежде всего  разглядеть соответствующую идею. Недаром же большинство лучших современных методов обработки сигналов первоначально было предложено практиками на основе инженерной интуиции, и лишь потом математики 
строго обосновали их оптимальность. 

Нет сомнения, что знание основ теории и техники передачи информа
ции существенно облегчит освоение последующих специальных курсов. 
Формы разные, но суть одна – передача информации! 

1 МАТЕМАТИЧЕСКИЕ МОДЕЛИ СИГНАЛОВ И ПОМЕХ 

 

1.1 Информация и сигналы 

 

Невозможно дать строгое и полное описание любого из природных 

объектов или явлений. Поэтому любое грамотное исследование всегда начинается с построения его математической модели. Это – упрощенное количественное описание объекта или явления, пригодное для решения конкретной 
задачи. Ясно, что различным задачам могут удовлетворять совершенно разные модели одного и того же явления. 

В связи с этим сомнительно, что кто-то может дать строгое и удовле
творяющее всех определение понятия “информация”. Принято считать, что 
информация – это сведения, знания, новости, идеи и т.п. независимо от 
формы их представления. 

Считают также, что информация – не материя, т.е. наличие её невоз
можно обнаружить с помощью органов чувств или приборов. 

Ещё полагают, что информация – не энергия, поскольку она, в отличие 

от энергии, не может проявлять себя, превратившись в работу. 

Чтобы не создалось впечатление, что весь курс будет посвящен изуче
нию способов передачи чего-либо бестелесного, дадим ещё одно определение. Сигнал – это материальный переносчик информации, и информация, в 
нем содержащаяся, трансформируется в изменение некоторых свойств этого 
материального объекта. Поэтому вполне естественно, что изучение закономерностей передачи информации мы, из соображений наглядности, зачастую 
будем заменять изучением свойств сигналов в процессе их передачи от источника к получателю. 

Итак, ясно, что передача информации невозможна без передачи сигна
лов. Обратное утверждение справедливо далеко не всегда. Если сведения, содержащиеся в сигнале, уже достоверно известны получателю, такой сигнал 
не несёт информации. С другой стороны, для менее информированного получателя тот же сигнал может содержать информацию.  

Следовательно, информация – адресное понятие. Всегда можно указать 

два конечных объекта в цепи преобразований сигнала. Это – источник информации и получатель. Источник информации – это объект, текущее состояние которого X интересует получателя. Передаваемое сообщение X, трансформируясь в процессе передачи из пункта, где расположен источник, в 
пункт, где расположен получатель, превращается в итоге в принимаемый сигнал Y. Получатель, наблюдая конкретную реализацию y, пытается определить, каково конкретное значение сообщения x.  

Отсюда видно, что у получателя всегда должна быть хотя бы некоторая 

неопределенность относительно текущего состояния источника X. Если такая 
неопределенность отсутствует (источник гарантированно должен быть в 

единственном состоянии xо, и получателю это уже известно), тратить ресурсы на прием сигнала y нет смысла (следовательно, и изучать в этой ситуации 
нечего). 

Удобный математический аппарат для описания объектов, ожидаемое 

состояние которых является неопределенным, дает теория вероятностей. 
Поэтому при рассмотрении СПИ все сигналы в цепи, связывающей источник 
X с получателем Y, рассматривают как взаимозависимые случайные объекты. 

Напомним важнейшие понятия теории вероятностей. Опыт — это 

совокупность действий, выполняемых по заранее оговоренным либо общепринятым правилам, например, подбрасывание монеты; извлечение карты из 
колоды; наблюдение погоды в конкретный день и час; измерение напряжения 
в конкретной точке устройства и т.д. Событие А называется случайным событием, если при проведении опыта оно может произойти, а может не 
произойти, причем исход заранее неизвестен. Примеры: выпадение герба при 
подбрасывании монеты; извлечение из колоды бубновой десятки; снегопад в 
полдень 20 января 2010 года; величина напряжения меньше 2 В. 

Вероятность 
( )
p A  события А — это число, характеризующее степень 

возможности появления этого события. Событие называется неслучайным 
(детерминированным), если 
( )
0
p A   (это невозможное событие) либо 

( )
1
p A   (это достоверное событие). Для случайного события 0
( )
1
p A

 . 

Для некоторых событий вероятность их появления можно точно ука
зать сразу на основе теоретических предпосылок. Например, вероятность выпадения герба равна 0,5. Для многих других событий остается лишь экспериментальный способ оценки вероятности, т.е. 
(
)
/
J
p A
m n

, где n — общее ко
личество проведенных опытов; m — количество опытов, в которых появилось событие А. Очевидно, что точность оценки возрастает при увеличении 
количества опытов n. 

Как правило, бывают известны последствия, которые повлечет за собой 

появление (и непоявление) события А, поэтому естественно желание заранее, 
до проведения опыта принять решение относительно того, как наилучшим 
образом подготовиться к преодолению этих последствий. Проблема в том, 
что способы подготовки к обоим исходам могут быть диаметрально противоположными, исключающими друг друга. Например, если 
( )
0,98
p A 
, то мы, 

скорее всего, примем решение готовиться к тому, что событие А появится. 

Конечно, мы можем ошибиться в своих прогнозах. Тем не менее, пра
вильность избранной стратегии подтверждает следующее соображение. Если 
будем следовать ей при проведении большого количества опытов, то начинает работать закон больших чисел и проявляются некоторые закономерности. 
В нашем примере при проведении n = 10000 опытов событие А появится 
примерно m  =  9800 раз и не появится всего в 200 опытах. 

Решение будет еще более обоснованным, если есть возможность коли
чественно определить величины рисков (потерь), связанных с каждым из 
возможных исходов опыта (кстати, величина потерь со знаком минус означает соответствующую прибыль). 

Рассмотрим пример. Некто предлагает вам поиграть по следующим 

правилам: бросаете игральную кость и, если выпадает шестерка (вероятность 
этого события равна 1/6), вы платите 6 рублей; при другом исходе вы получаете 1 рубль. Итак, величина потерь X — это дискретная случайная величина, она имеет два возможных значения: x1 = 6 и x2 = –1. Стоит ли играть на 
таких условиях? На первый взгляд, игра кажется справедливой, тем не менее, 
подсчитаем среднюю величину потерь. Положим, будет проведено 600 опытов. Шестерка выпадет примерно 100 раз, при этом вы потеряете 600 рублей. 
Иной исход будет приблизительно в 500 опытах, и вы получите 500 рублей. 
Баланс нежелательный, средняя величина потерь в расчете на один опыт составит 1/6 рубля. В теории вероятностей эта числовая характеристика называется математическим ожиданием случайной величины X. Как мы только 
что 
убедились, 
она 
вычисляется 
по 
формуле 

1
1
2
2
( )
(
)
6 1/6 1 5/6
1/6
x
m
x p x
x p x


 
 

. 

Можно определить полную группу несовместных случайных событий 

А1, А2,…,Аm. Это значит, что в результате опыта обязательно произойдет одно из перечисленных событий, но только одно из них. Для каждого события 
Aj 
существует 
вероятность 
его 
появления 
(
)
J
p A
, 
причем 

1
2
(
)
(
) ...
(
)
1
m
p A
p A
p A



 . Например, принято сообщение, состоящее из 200 

букв. Тогда полной будет, скажем, такая группа случайных событий: А1 — в 
тексте нет ошибок; А2 — в тексте одна ошибка; А3 — в тексте от двух до пяти ошибок; А4 — в тексте более пяти ошибок. 

Определив исходный пункт для построения модели сигналов, во всех 

последующих разделах курса мы будем заниматься вопросами вероятностного описания сигналов в различных звеньях тракта передачи, при этом основное внимание будем уделять тем характеристикам сигнала, которые в 
наибольшей степени зависят от передаваемого сообщения X. Способы определения количества информации, содержащейся в сигнале, будут рассмотрены в разделе 4. 

 

1.2 Цифровые сигналы 

 

Сигнал X, который может находиться лишь в одном из m возможных 

состояний, называется m-ичным символом. Перечень всех возможных значений символа x1,x2,…,xm, образующих полную группу несовместных событий, называется алфавитом, а число m – основанием кода (системы счисления). 

Полное вероятностное описание символа дает его ряд распределения 

.

xj
x1    x2 … xm

p
p1    p2 … pm
(1.1)

При этом сумма чисел-вероятностей во второй строке равна единице. 
Примеры: 1) Х – русская буква, m=33, её возможные значения (алфа
вит): а,б,…,я. Есть экспериментальные данные о вероятностях появления 
каждой из букв [10]. 

2) Х – десятичная цифра, m=10, алфавит: 0,1,2,…,9. Если не учитывать 

нашу любовь к круглым числам, можно считать, что все цифры алфавита 
имеют одинаковую вероятность по 0,1.  

3) Х – двоичная цифра (бит = bit = binary digit), алфавит: 0,1.  
Конечно, формально можно представить символ, для которого m=1, но 

принимать такой сигнал нет смысла (см. разд. 1.1). Поэтому бит – это сигнал 
простейшего вида, и благодаря этому свойству двоичные сигналы нашли 
широчайшее применение в различных устройствах передачи, хранения и 
преобразования сигналов. 

Для букв алфавита можно использовать любые (разумеется, различные) 

названия и обозначения – от этого сущность сигнала не изменится. Если буквам алфавита приписать числовые значения, то символ Х превращается в 
дискретную случайную величину. Для СПИ это – типичная ситуация, поскольку различные состояния символа передаются путем задания конкретных значений частоты, фазы, амплитуды и иных количественных параметров 
сигнала. 

Практически любую числовую характеристику дискретной случайной 

величины Х можно определить как математическое ожидание (М) некоторой 
известной функции 
 
x
y


   



 

1

.

m

j
j

j

X
x
p










 
(1.2)

В частности, вычисление по формуле (1.2) дает: математическое ожи
дание 
x
m , если  
x
x 

; дисперсию 
x
D , если  



2

x
m
x
x



; пятый начальный 

момент, если  
5x
x 

; число m, если  
 
1
x
p x


, и т.д.  

Любое из чисел, определяемых по формуле (1.2), не дает полного опи
сания свойств символа Х в отличие от ряда распределения (1.1), но их использование порой имеет смысл благодаря компактности представления 
(число, а не таблица). 

При передаче каждому из возможных значений символа приписывается 

определенный смысл в соответствии с заранее оговоренной таблицей кодирования, т.е. эта таблица известна получателю. Например, при m=2 сообщение о возможном приезде конкретного лица может иметь следующий вид: 1 – 
приедет, 0 – не приедет. Если использовать восьмеричный символ, то можно 
передать более детальное (информативное) сообщение, составив таблицу, 

например, так: 0 – не приедет; 1 – приедет в понедельник; …; 7 – приедет в 
воскресенье. Отсюда вывод: чем больше m, тем больше информации (сведений) можно вложить в данный символ. Но использование символов с большим m порождает ряд проблем (см., например, разд. 2.), поэтому  часто для 
передачи сообщения используют не один, а несколько m-ичных символов. 

Кодовая комбинация 
[1]
[2]
[ ]
,
,...,
n
Χ
Χ
Χ
, состоящая из m-ичных символов, 

нередко называется кодовым словом длины n. Другое возможное название - 
это n-разрядное m-ичное число. Пусть все n символов, входящих в это слово, 
имеют один и тот же алфавит 
m
x
x
x
,...,
,
2
1
. 

Пока рассматриваем эту комбинацию как единое целое и перечислим 

все её возможные состояния:  

[1]
[2]
[ ]
[1]
[2]
[ ]
[1]
[2]
[ ]

1
1
1
2
1
1
,
,...,
;
,
,...,
;
...;
,
,...,
.
n
n
n

m
m
m
x
x
x
x
x
x
x
x
x
(1.3)

Число этих состояний равно 

.
n
m
Μ 
(1.4)

Отсюда следует, что комбинация символов, в принципе, ничем не от
личается от одного М-ичного символа, если не считать использования громоздких обозначений для каждой из М букв алфавита (1.3). И в этом случае 
для полного описания сигнала нужно знать ряд распределения (1.1), который 
в первой строке содержит возможные значения сигнала (1.3), а во второй 
строке – числа, т.е. вероятности появления каждого из этих значений 




[1]
[2]
[ ]
,
,...,
,
n

i
j
p x
x
x
(1.5)

причем сумма этих М вероятностей, естественно, равна единице. 

Далее, формула (1.2) определяет способ вычисления любой числовой 

характеристики и для кодовой комбинации, и в этом случае она принимает 
вид 





 


[1]
[2]
[ ]

[1]
[2]
[ ]
[1]
[2]
[ ]

1
1
1

,
,...,

,
,...,
,
,...,
.

n

m
m
m

n
n

i
i

i

Χ
Χ
Χ

x
x
x
p x
x
x

























 

(1.6)

Имея ряд распределения для комбинации в целом, можно найти веро
ятностные и числовые характеристики для любого символа или группы символов, входящих в комбинацию. 

Для примера рассмотрим комбинацию Χ,Υ , состоящую из двух (n=2) 

m-ичных символов. Имея m2 вероятностей совместного появления значений 

jx  и 
ky  (1.5), по формуле сложения вероятностей можно найти вероятности 

для каждого из символов 










1
1

,
,
,
.

m
m

j
j
j

j

p x
p x
y
p y
p x
y




 






(1.7)

Далее, воспользовавшись формулой умножения вероятностей 



  


 

,
/
/
,
j
j
j
j
p x
y
p x
p y
x
p y
p x
y






(1.8)

можно построить m условных рядов распределения символа X, по одному ря
ду для каждого из значений 
m
k
,...,
2,1

, 













y
p

y
x
p
y
x
p

j

j

,
/

(1.9)

и аналогично m условных рядов распределения для Y 






  .
,
/

j

j

j
x
p

y
x
p
x
y
p





(1.10)

Для определения какой-либо условной числовой характеристики сим
вола Х воспользуемся той же формулой (1.2), но подставлять нужно условные вероятности, соответствующие конкретному значению y символа Y. 

Два символа X и Y являются независимыми, если 

 
j
j
x
p
y
x
p


/
 и, сле
довательно, 




k
j
y
p
x
y
p

/

 для всех возможных значений j и k. Независи
мость символов упрощает их описание, поскольку любая условная характеристика символа равна соответствующей безусловной. 

Описание последовательности зависимых символов для большинства 

ситуаций, представляющих практический интерес, является хотя и очень 
простым по смыслу, но порой чрезвычайно громоздким. Одной из самых 
простых моделей, учитывающих зависимость символов в их бесконечной последовательности 
[
1]
[ ]
[
1]
...,
,
,
,...
k
k
k
Χ
Χ
Χ


, является простая марковская цепь 






[
1]
[ ]
[
1]
[
1]
[ ]
/
,
,...
/
,
k
k
k
k
k

i
j
s
i
j
p x
x
x
p x
x




(1.11)

то есть влияние всех предшествующих символов передается “по цепочке”, в 
итоге значение текущего символа формально зависит от одного предыдущего. 

Многие сообщения по своей природе являются цифровыми, т.е. со
стоящими из последовательности символов. Таковы тексты, различные числовые массивы. Более того, в современной технике связи очень часто сообщения, которые по своей природе не относятся к цифровым (например, звуки 
и изображения), преобразуются в последовательность двоичных символов. 

 

1.3. Дискретные сигналы 

 

Рассмотрим такие случайные функции времени 
 t
Χ
, которые являются 

дискретными во времени t, но непрерывны по величине. Поведение такого 
сигнала можно полностью описать последовательностью 
[1]
[2]
[ ]
,
,...,
n
Χ
Χ
Χ
, со
стоящей из n непрерывных случайных величин. Напомним, что в цифровом 
сигнале каждая из этих величин является дискретной. 

Начнем с простейшего случая 
1

n
, т.е. сигнал – это просто непрерыв
ная случайная величина Х. Большинство физических величин (температура, давление, скорость, напряжение и т.п.) являются непрерывными случайными величинами, т.е. каждая из них может принять любое значение внутри 
некоторого непрерывного интервала. 

Полное описание непрерывной случайной величины содержит её плот
ность вероятностей 
 
x
W
. Это неотрицательная функция, удовлетворяющая 

условию нормировки 

.1
)
(








dx
x
W
(1.12)

Любую из числовых характеристик находим с помощью формулы, по
добной (1.2), 

 


   
,








dx
x
W
x
X
M


(1.13)

задав функцию 
 
x

 соответствующего вида. Одной из самых полезных мо
делей является нормальная (гауссовская) случайная величина, для которой 
кривая плотности вероятностей – колокольного вида 




2

2

1
( )
,
2
2

x

x
x

x
m
W x
ехр
















(1.14)

где 
x
m  и 
x
 – математическое ожидание и среднеквадратическое отклонение 

соответственно. 

Полной характеристикой последовательности непрерывных случай
ных величин 
[1]
[2]
[ ]
,
,...,
n
Χ
Χ
Χ
является совместная плотность вероятностей 




[1]
[2]
[ ]
,
,...,
n
W x
x
x
. 

Для определения числовых характеристик используется аналог форму
лы (1.6) 









[1]
[2]
[ ]

[1]
[2]
[ ]
[1]
[2]
[ ]
[1]
[ ]

,
,...,

,
,...,
,
,...,
.

n

n
n
n

X
X
X

x
x
x
W x
x
x
dx
dx
























(1.15)

Чтобы использовать более компактные обозначения, систему случай
ных величин удобно представить в виде вектора-строки 




[1]
[2]
[ ]
,
,...,
,
n
Χ
Χ
Χ

Χ
(1.16)

а вектор её конкретных значений точно так же обозначить строчной буквой 
х. 

Наиболее часто используются следующие числовые характеристики: 

вектор-строка математических ожиданий 






[1]
[2]
[ ]
[1]
[2]
[ ]
,
,...,
M
,
,...,
n
n
m
m
m
X
X
X






x
m
(1.17)

и ковариационная матрица R, элементами которой служат числа 


 


[ ]
[ ]

,
M
,
,
1,2,..., .
j
k

j k
j
k
R
X
m
X
m
j k
n









(1.18)

Для независимых случайных величин нет необходимости использовать 

понятие условной плотности вероятностей, поэтому 










[1]
[2]
[ ]
[1]
[2]
[ ]

1
2
,
,...,
n
n

n
W x
x
x
W x
W
x
W
x


(1.19)

и, следовательно, ковариационная матрица R является диагональной. 

Доступ онлайн
220 ₽
В корзину