Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Случайные процессы. Примеры и задачи. Том 4 - Оптимальное обнаружение сигналов

Покупка
Артикул: 660777.01.99
В четвертом томе задачника представлены задачи по оптимальному обнаружению и различению сигналов. Использованы непрерывные и дис- кретные версии сигналов и систем, а также различные критерии обнару- жения (Байеса, Неймана-Пирсона и др.) Для студентов вузов радиотехнических и инфокоммуникационных специальностей, будет полезна преподавателям, читающим соответст- вующие курсы.
Тихонов, В. И. Случайные процессы. Примеры и задачи. Том 4 - Оптимальное обнаружение сигналов: Учебное пособие / Тихонов В.И., Шахтарин Б.И., Сизых В.В. - Москва :Гор. линия-Телеком, 2017. - 400 с.: ISBN 978-5-9912-0488-0. - Текст : электронный. - URL: https://znanium.com/catalog/product/896387 (дата обращения: 25.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Том 4
Оптимальное 
обнаружение 
сигналов

Рекомендовано учебнометодическим объединением вузов
по университетскому политехническому образованию
в качестве учебного пособия
для студентов высших учебных заведений

Москва

Горячая линия – Телеком

2017

УДК 621.37+621.391 
ББК 32.841 
    Т46 

Р е ц е н з е н т ы :  доктор техн. наук, профессор  Н. Н. Удалов;  
доктор техн. наук, профессор  В. С. Уваров 

Тихонов В. И., Шахтарин Б.И., Сизых В. В. 
Т46    Случайные процессы. Примеры и задачи. Том 4 – Оптимальное 
обнаружение сигналов: Учебное пособие для вузов / Под редакцией 
В. В. Сизых. – 2-е изд., испр. – М.: Горячая линия–Телеком, 2017. – 
400 с.: ил. 

ISBN 978-5-9912-0488-0. 

В четвертом томе задачника представлены задачи по оптимальному 
обнаружению и различению сигналов. Использованы непрерывные и дискретные версии сигналов и систем, а также различные критерии обнаружения (Байеса, Неймана-Пирсона и др.) 
Для студентов вузов радиотехнических и инфокоммуникационных 
специальностей, будет полезна преподавателям, читающим соответствующие курсы. 

ББК 32.841 

Адрес издательства в Интернет WWW.TECHBOOK.RU 

Тихонов Василий Иванович, Шахтарин Борис Ильич,  

Сизых Вадим Витальевич 
Случайные процессы. Примеры и задачи.  Том 4 – Оптимальное 
обнаружение сигналов Под редакцией  В. В. Сизых 
Учебное пособие для вузов      

      Все права защищены.
Любая часть этого издания не может быть воспроизведена в какой бы то ни было форме 
и какими бы то ни было средствами без письменного разрешения правообладателя
© ООО «Научно-техническое издательство «Горячая линия – Телеком»
www.techbook.ru
 ©  В. И. Тихонов,  Б. И. Шахтарин, В. В. Сизых 

Введение

Посвящается 70-летию Великой победы

Теория обнаружения сигналов рассматривается в многочисленных
работах, включая монографии, учебные пособия и статьи.
Современные обзоры [1–3] составлены авторами, принимавшими
непосредственное участие в разработке этой теории.
Классическая теория обнаружения и различения сигналов основана на работах [4–10] и на предшествующих им статьях [11, 12]. Очевидно, в нашем Отечестве работы [5–12] являются первыми, в которых
систематизировано изложена классическая теория обнаружения сигналов. Дальнейшее развитие классическая теория получила в 60-х годах
прошлого века [13–17].
Докторская диссертация В.А. Котельникова
(1947 г.) – одна из первых в мире, которая до сих пор широко цитируется в России и в зарубежной литературе [1–3].
При написании первого раздела данного учебного пособия «Байесовские методы обнаружения и различения сигналов» использовались
в частности статьи и книги [18–26], а также другие источники, на которые имеются ссылки по мере изложения материала первого раздела.
Приводя примеры решений задач, авторы акцентировали внимание на
единстве подхода к задачам обнаружения и оценки параметров сигналов.
При написании главы 5 «Последовательное обнаружение сигналов» использовались материалы [22, 27–29, 153 и др.].
Материалы второго раздела «Обнаружения сигналов в условиях
априорной неопределенности» основаны на [22, 28, 30–49].
В основе материалов третьего раздела «Обнаружение случайных
сигналов» использованы книги [22, 24, 43, 50, 51] и статьи [3, 52, 53].
В данном пособии основное внимание уделяется алгоритмическим
вопросам. Такие понятия, как равномерно наиболее мощный (РНМ)
критерии, локально оптимальный (ЛО) обнаружитель и другие, связанные с общей теорией проверки гипотез, практически не рассматриваются.
Автор благодарит за помощь в работе д.т.н., проф. В.К. Хименко
который не пожалел своих усилий и средств для обеспечения авторов
столь необходимой в работе над данным учебным пособием литературой.
Вячеслав Максимович Зинчук поделился с авторами своими

Введение

результатами, использованными в главах пятой и восьмой, и подарил
книгу Gibson J.D., Melsa J.L. «Introduction to nonparametric detection
with applications», без которой было бы весьма затруднительно подготовить главу 8, не говоря о том, что снабдил авторов копиями статей
F.C. Schweppe, L.L. Scharft и некоторыми другими.
В области непараметрических методов обнаружения необходимо
отметить работы П.С. Акимова, которые использовались при написании главы 8. П.С. Акимов (1931–2002) был не только выдающимся
ученым МГТУ им. Н.Э. Баумана, но и признанным в России [44, 77] и
за рубежом [96–105] как высококлассный и эрудированный специалист
в области непараметрического обнаружения сигналов и оценки их параметров. Так, например, в библиографическом списке С.А. Кассама
имеются ссылки на 10 работ П.С. Акимова [96–105]. Следует отметить,
что и в [95] также цитируются многие работы П.С. Акимова.
Авторы искренне благодарны д.т.н., профессору Юрию Георгиевичу Сосулину за предоставленную им возможность использовать материалы его книги [51], без которых было бы трудно подготовить гл. 11.
Авторы благодарят рецензентов д.т.н., профессора Н.Н. Удалова
и д.ф.-м.н, профессора А.И. Козлова за ряд ценных замечаний, способствовавших улучшению материала учебного пособия.
Большая работа по редактированию и верстке была проведена
к.т.н. Ю.Н. Чернышовым, которому авторы весьма благодарны.

Байесовские методы обнаружения
и различения сигналов

Обнаружение и различение полностью
известных дискретных сигналов

Теоретические сведения

Обнаружение или различение сигналов представляет собой задачу проверки статистических гипотез, подробно рассмотренную в [85, гл. 5]. В частном случае аддитивных
гауссовских шумов и некоторых допущений задача сводится к синтезу фильтра, оптимального по критерию максимального отношения сигнал/шум [140, ч. 1].
Приведем
основные сведения, позволяющие решить задачу для наблюдения сигналов в дискретном времени.
Пусть в результате наблюдения получен вектор x, представляющий собой значение
векторной случайной величины (СВ) X, принимающей значения из пространства наблюдений ΩX. Для задачи различения сигналов наблюдение представляет собой смесь
(аддитивную, мультипликативную или комбинированную) одного из заданного набора
полностью известных сигналов sj = [s1j, s2j, . . . , sNj]т (j = 0, m − 1) и шума (помехи)
с заданной плотностью распределения вероятностей (ПРВ).
Задача обнаружения является частным случаем распознавания, когда m = 2, а
один из сигналов тождественно равен нулю: s0 = 0.
Например, при распознавании двух сигналов s0 и s1 на фоне комбинированного
аддитивного V и мультипликативного U шума по наблюдению x следует проводить проверку гипотез:

Н0:
X = Us0 + V;
H1:
X = Us1 + V,
(1.1)

где U = diag (U1, U2, . . . , Un) — случайная матрица отсчетов мультипликативных шумов;
V = [V1, V2, . . . , Vn]т — случайный вектор отсчетов аддитивных шумов.
Задачу (1.1) можно представить в параметрическом виде. Пусть случайная величина Θ может принимать значения из множества ΩΘ = {0; 1}. Наблюдению доступна
реализация СВ X = (1 − Θ)(Us0 + V) + Θ(Us1 + V) = (1 − Θ)Us0 + ΘUs1 + V.
Требуется проверить гипотезы:

Н0:
Θ = 0;
Н1:
Θ = 1.
(1.2)

Приведенный пример показывает, что при данной постановке задачи обнаружения
(различения) СВ X зависит от некоторой случайной величины Θ ∈ ΩΘ (состояния природы), значение которой ϑ в конкретном опыте необходимо определить.
Заметим, что при такой формулировке задачи обнаружения и оценки параметров
сигналов ничем принципиально не различаются и решаются одинаково.
Будем считать, что условная функция распределения FX|Θ(x | θ) = P {X < x |
Θ = θ} (условная плотность распределения вероятности (ПРВ)) WX|Θ(x | θ)) и ПРВ
WΘ(θ) известны до опыта.

I. Байесовские методы обнаружения и различения сигналов

Для приведенного примера пространство действий A состоит из двух элементов:
a0 и a1, которые соответственно означают принятие гипотезы Н0 (ˆΘ = 0) и H1 (ˆΘ = 1).
Пространство решений D состоит из всех отображений d : ΩX → A вектора наблюдений в доступные действия. Таким образом, пространство наблюдений делится на две
области: область Ω′
X = {x | d(x) = a0} принятия гипотезы Н0 (совершение действия
a0) и область Ω′′
X = {x | d(x) = a1} принятия гипотезы H1 (совершение действия a1).
Задача синтеза оптимального обнаружителя (различителя) заключается в проведении
этого разбиения. Заметим, что области Ω′
X и Ω′′
X могут быть несвязными.
При данной постановке задачи каждому действию взаимно однозначно сопоставляется оценка ˆΘ состояния (параметра) Θ природы, поэтому пространства A и ΩΘ можно
отождествить: A = ΩΘ.
Каждое действие (решение о значении θ случайного параметра Θ в конкретном
опыте) сопровождается потерями, которые описывают функцией потерь L : ΩΘ × A →
R+ ∪ 0, где R+ — множество действительных положительных чисел. Функция потерь
каждому истинному значению θ состояния (параметра) природы Θ сопоставляет оценку ˆΘ = ˆθ этого параметра. Поскольку решение может сопровождаться ошибками, то в
случае ошибки лицо, принимающее решение, несет убытки, которые описываются функцией потерь. Ясно, что функция потерь является неотрицательной функцией. При этом
потери при правильном решении должны быть больше потерь при ошибочном решении:
L(θ, ˆθ) > L(θ, θ) при θ ̸= ˆθ, A = ΩΘ, d(x) = ˆθ.
Каждому решению d = d(x) и состоянию природы θ сопоставим риск

R(θ, d) =
ΩX
L(θ, d(x))WX|Θ(x | θ) dx = E{L(Θ, d(X)) | Θ = θ}.
(1.3)

Критерий Байеса. Байесовское решающее правило d∗ = d∗(x) ∈ A выбирают из
условия минимума среднего риска:

r(d∗) = min
d∈D

ΩΘ
R(θ, d(x))WΘ(θ) dθ.
(1.4)

Можно показать [85, гл. 5], что байесовская решающая функция может быть найдена из условия минимума апостериорного риска

rap(d∗) = min
d∈D

ΩΘ
L(θ, a))WΘ|X(θ | x) dθ.
(1.5)

Характеристики обнаружителя.
Для задачи (1.2) (при условии A =
ΩΘ =
= {0; 1}) основными характеристиками обнаружителя являются:
а) вероятность ложной тревоги α = P{d(X) = 1 | Θ = 0}, равная вероятности
принять гипотезу H1 о наличии полезного сигнала в то время, как полезный сигнал
отсутствует;
б) вероятность пропуска сигнала β = P{d(X) = 0 | Θ = 1}, равная вероятности
принять гипотезу Н0 об отсутствии полезного сигнала в то время, как полезный сигнал
присутствует;
в) вероятность правильного обнаружения Qd = P{d(X) = 1 | Θ = 1} = 1 − β,
равная вероятности принять гипотезу H1 о наличии полезного сигнала в то время, как
полезный сигнал действительно присутствует;
г) вероятность полной ошибки Q = αP{Θ = 0} + βP{Θ = 1}.
Величину α называют уровнем значимости критерия d(x), а величину Qd — мощностью критерия.
Критерий Неймана-Пирсона. При использовании данного критерия решающую
функцию ищут таким образом, чтобы максимизировать вероятность обнаружения при

1. Обнаружение полностью известных дискретных сигналов
7

сохранении вероятности ложной тревоги ниже заданного уровня:

Qd = P{d∗(X) = 1 | Θ = 1} = max
d∈D P{d(X) = 1 | Θ = 1};

α = P{d∗(X) = 1 | Θ = 0} ⩽ Pлт.
(1.6)

Критерий идеального наблюдателя. При использовании данного критерия минимизируется полная ошибка Qd.
Минимаксный критерий. В том случае, когда априорных сведений о распределении параметра природы Θ нет, используют минимаксный критерий. Согласно этому
критерию, необходимо использовать байесовское решающее правило, соответствующее
такому априорному распределению WΘ(θ), при котором достигается наибольший средний (байесовский) риск. Таким образом, минимаксное решающее правило выбирается
для «наихудшего» случая.

Примеры

1.1. Критерий отношения правдоподобия. Проверить наличие или
отсутствие полезного сигнала известной формы на фоне гауссовского
аддитивного дискретного белого шума. Вероятность появления сигнала равна p.
Решение. Обозначим s = [s1, s2, . . . , sn]т — вектор отсчетов полезного сигнала, n = [n1, n2, . . . , nn]т — вектор (независимых) отсчетов
дискретного белого шума с нулевым математическим ожиданием и дисперсией σ2. Наблюдается вектор X = Θs + n. Задача заключается в
проверке гипотез:

Н0:
Θ = 0;

Н1:
Θ = 1.

Введем функцию потерь следующим образом. Потери, связанные
с правильным решением, положим равными нулю. Потери, связанные с
ложной тревогой (принятие гипотезы H1, когда справедлива Н0), положим равными L01, а потери, связанные с пропуском сигнала (принятие
гипотезы Н0, когда справедлива Н0), положим равными L10.

WΘ(θ) = (1 − p)δ(θ) + pδ(θ − 1);

WX|Θ(x | Θ) =

N
i=1

1
√

2πσ2 exp
− 1

2σ2 (xi − θsi)2
=

=
1

(2πσ2)N/2 exp

− 1

2σ2

n
i=1
(xi − θsi)2
.

Средний риск

r(d∗) = min
d∈D

ΩX

ΩΘ
L(θ, d(x))WX|Θ(x | θ)WΘ(θ) dθdx.

Вычислив внутренний интеграл с учетом определения δ-функции,

I. Байесовские методы обнаружения и различения сигналов

получим

r(d∗) = min
d∈D

ΩX
[(1−p)L(0, d(x))WX|Θ(x | 0)+ pL(1, d(x))WX|Θ(x | 1)] dx.

Обозначим области принятия решений Ω0 = {x | d(x) = 0} и Ω1 =
= {x | d(x) = 1}. Тогда

r(d∗) = min
d∈D

Ω1
[(1 − p)L01WX|Θ(x | 0) dx +
Ω0
pL10WX|Θ(x | 1)] dx

.

Для минимизации полученного выражения в область Ω1 нужно
включить все x, для которых (1−p)L01WX|Θ(x | 0) < pL10WX|Θ(x | 1)].
Назовем отношением правдоподобия выражение

Λ(x) = WX|Θ(x | 0)

WX|Θ(x | 1).
(1.7)

Таким образом, приходим к критерию отношения правдоподобия:

при Λ(x) <
pL10

(1 − p)L01
принимается гипотеза H1;

при Λ(x) ⩾
pL10

(1 − p)L01
принимается гипотеза Н0.

Учитывая выражения для условной ПРВ, находим

Λ(x) = WX|Θ(x | 0)

WX|Θ(x | 1) = exp

− 1

2σ2

n
i=1
[x2
i − (xi − si)2]

=

= exp

− 1

2σ2

n
i=1
[2xisi − s2
i ]

.

Полученный алгоритм сводится к вычислению статистики
ni=1
xisi
и сравнению ее значения с порогом

n
i=1
xisi

Н0
≷
H1
Λ0 = σ2 ln (1 − p)L01

pL10
+ 1

2

n
i=1
s2
i .

Заметим, что получен алгоритм цифрового согласованного фильтра. Действительно, если положить импульсную характеристику линейного фильтра равной hk = sn−k, k = 0, n − 1, то отклик такого фильтра

yn =

n
i=1
hn−isi

в момент времени n является статистикой логарифма отношения правдоподобия, полученной выше.

1. Обнаружение полностью известных дискретных сигналов
9

1.2. Пусть элементы вектора наблюдения x = [x1, x2, ..., xN]т представляют собой аддитивную смесь постоянного сигнала и дискретного белого гауссовского шума с нулевым математическим ожиданием и
дисперсией σ2. В одном случае значение полезного сигнала равно a0
(гипотеза Н0), в другом — a1 (гипотеза H1). Найти отношение правдоподобия, вероятности ложной тревоги α и пропуска сигнала β.
Решение. Вектор наблюдения можно представить в виде

X = (1 − Θ)a0 + Θa1 + n,

где ak = [ak, ak, ..., ak]т, k = 1, 2, — вектор полезного сигнала размерности N × 1, n = [n1, n2, ..., nN]т — вектор отсчетов шума. Следует
проверить гипотезы

Н0: Θ = θ0 = 0;
Н1: Θ = θ1 = 1.

В силу независимости отсчетов совместная ПРВ имеет вид

WX|Θ(x | θk) = (2πσ2)−N/2 exp

−

N
i=1

(xi − ak)2

2σ2

,
k = 0, 1.
(1.8)

Отношение правдоподобия

Λ(x) = WX|Θ(x | 1)

WX|Θ(x | 0) = exp

a1 − a0

σ2

N
i=1
xi − N(a2
1 − a2
0)

2σ2

.
(1.9)

Наблюдатель принимает гипотезу H1, если Λ(x) > Λ0, где Λ0 определяется выбранным критерием решения.
Экпоненциальная функция является монотонной, поэтому решение
на основе величины Λ(x) может быть заменено решением на основе
выборочного математического ожидания

¯x = 1

N

N
i=1
xi,
(1.10)

которое нужно сранивать с порогом

x0 = a0 + a1

2
+
σ2 ln Λ0

N(a1 − a0).

Принимается гипотеза H1, если ¯x > x0.
Поверхность решения
определяется равенством ¯x = x0 или

N
i=1
xi = Nx0.
(1.11)

Это равенство определяет гиперплоскость.
Как известно, E(¯x) = ak, k = 0, 1, а дисперсия E[(¯x−ak)2] = σ2/N
в силу независимости отсчетов. Выборочное среднее как сумма гаус
I. Байесовские методы обнаружения и различения сигналов

совских случайных величин имеет нормальное распределение W0(¯x) в
случае гиипотезы Н0 и W1(¯x) в случае гипотезы H1 при равных дисперсиях D = σ2/N. Поэтому ошибки α и β определяются соотношениями:

α =
∞

x0
W0(¯x) d¯x;
β =
x0

−∞
W1(¯x) d¯x.

Интегрируя, получаем:

α = erfc
x0 − a0

σ/√n

;
Qd = erfc
x0 − a1

σ/√n

.

1.3. Коррелированный шум. Пусть в аддитивной смеси сигнала
и шума X = Θs + w шум w является гауссовским коррелированным,
и его ПРВ — нормальная с матрицей ковариацией K (w ∼ N(0, K)).
Если шум стационарный в широком смысле с нулевым средним значением, тогда

(K)mn = cov(w[m]w[n]) = E(w[m]w[n]) = rw[m − n].

В данном случае при E(w) = 0:

WX|Θ(x | 1) =
1

(2π)N/2
√

det K exp
−1

2(x − s)тKт(x − s)
;

WX|Θ(x | 0) =
1

(2π)N/2
√

det K exp
−1

2xтK−1x
.

Заметим, что при Н0 x ∼ N(0, K); при H1 x ∼ N(s, K).
Принимается гипотеза H1, если

ln Λ(x) = ln WX|Θ(x | 1)

WX|Θ(x | 0) > ln γ.

Здесь

ln Λ(x) = −0,5[(x − s)тK−1(x − s) − xтK−1x] =

= −[0,5xтK−1x − 2xтK−1s + sтK−1s − xтK−1x] =

= xтK−1s − 0,5sтK−1s.
(1.12)

Если на зависящее от наблюдаемых данных второе слагаемое
включить в величину порога, то получим

T (x) = xтR−1s > γ′.
(1.13)

Обнаружитель, действующий по алгоритму (1.13), называется
обобщенным коррелятором, или обобщенным согласованным фильтром (СФ). Опорный сигнал в данном случае имеет вид s′ = K−1s.
Тогда статистику T (x) можно записать в виде

T (x) = xтK−1s = xтs′,