Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Полиномиальная аппроксимация для нелинейных задач

Покупка
Основная коллекция
Артикул: 631039.01.99
В книге изложен новый вычислительный метод приближенного определе- ния вектора параметров, удовлетворяющего системе нелинейных алгебраиче- ских уравнений, определенных явно или заданных некоторымв ычислительным процессом. При наличии случайных возмущений метод позволяет получить оценку вектора условного математического ожидания. Метод апробирован при численномре шении значительного количества прикладных задач оценивания и управления. Книга адресована вычислителям-исследователям, а также студентам стар- ших курсов и аспирантамс оответствующих специальностей.
Богуславский, И. А. Полиномиальная аппроксимация для нелинейных задач/БогуславскийИ.А. - Москва : Физматлит, 2006. - 208 с.: ISBN 5-9221-0671-6. - Текст : электронный. - URL: https://znanium.com/catalog/product/544639 (дата обращения: 26.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
Богуславский И.А.

Полиномиальная

аппроксимация для
нелинейных задач

оценивания и
управления

МОСКВА

ФИЗМАТЛИТ ®

УДК 519.615
ББК 22.193
Б 74

Б о г у с л а в с к и й И. А.
Полиномиальная аппроксимация для нелинейных задач оценивания и управления. — М.: ФИЗМАТЛИТ, 2006. —
208 с. — ISBN 5-9221-0671-6.

В книге изложен новый вычислительный метод приближенного определения вектора параметров, удовлетворяющего системе нелинейных алгебраических уравнений, определенных явно или заданных некоторым вычислительным
процессом. При наличии случайных возмущений метод позволяет получить
оценку вектора условного математического ожидания. Метод апробирован при
численном решении значительного количества прикладных задач оценивания
и управления.
Книга адресована вычислителям-исследователям, а также студентам старших курсов и аспирантам соответствующих специальностей.

ISBN 5-9221-0671-6

c⃝ ФИЗМАТЛИТ, 2006

c⃝ И. А. Богуславский, 2006

ОГЛАВЛЕНИЕ

Предисловие . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
7

Гл а в а
1. Линейные оценки вектора случайных параметров . . . .
9

§ 1. Линейная оценка, оптимальная в среднеквадратичном . .. . . . . . . .
9
§ 2. Векторная мера нелинейности вектора W1 по отношению к вектору θ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
13
§ 3. Декомпозиция наблюдений . .. . . . . . . . . . . . . . . . . . . . . . . . . .
14
§ 4. Рекуррентная форма алгоритма для вектора оценки. .. . . . . . . . . .
17
§ 5. Задача оптимальной линейной фильтрации . .. . . . . . . . . . . . . . .
21
§ 6. Задача оптимальной линейной рекуррентной интерполяции (задача
оптимального сглаживания). .. . . . . . . . .. . . . . . . . . . . . . . . . . .
23

Гл а в а
2. Основы метода полиномиальной аппроксимации . . . . .
26

§ 1. Теорема М. Стоуна и базис семейства непрерывных функций . .. . .
26
§ 2. Основная теорема . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
§ 3. Полиномиальная аппроксимация . .. . . . . . . . . . . . . . . . . . . . . .
30
§ 4. Вычисление статистических моментов и выбор стохастической меры
32
§ 5. Фрагмент программы модифицированного метода трапеций . .. . . .
35

Гл а в а
3. Полиномиальная аппроксимация и оптимизация управления . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . .
38

§ 1. Введение . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
38
§ 2. Задача полиномиальной аппроксимации заданной функции. .. . . . .
39
§ 3. Прикладные примеры . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
41
1. Обнаружение полиномиальной функции. .. .. . . . . . . . . . . . . . .
41
2. Ошибки аппроксимации для вектора состояния динамической
системы . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
42
§ 4. Полиномиальная аппроксимация в задачах оптимизации управления
44
§ 5. Оптимизация управления линейной системой: линейный и квадратичный критерии оптимальности . .. . . . . . . . . . . . . . . . . . . . . .
47
§ 6. Приближенная оптимизация управления для нелинейной динамической системы . .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . .
51
§ 7. Полиномиальная аппроксимация при наличии случайных ошибок
52
§ 8. Идентификация «черного ящика» . .. . . . . . . . . . . . . . . . . . . . . .
52

Гл а в а
4. Полиномиальная
аппроксимация
обратной
векторфункции . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
55

§ 1. Введение . .. . . . . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . .
55
§ 2. Задача полиномиальной аппроксимации обратной вектор-функции
59

Оглавление

§ 3. Наличие нескольких векторов корней и разбиение априорной области Ωθ. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
63
§ 4. Корректность алгоритма оценки и учет случайных слагаемых
в наблюдениях . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
64
§ 5. Варианты реализации полиномиальной аппроксимации обратной
вектор-функции. .. . . . . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . .
66
§ 6. Численные решения недоопределенных и переопределенных систем
линейных алгебраических уравнений . .. . . . . . . . . . . . . . . . . . .
69
§ 7. Решение системы уравнений с нелинейностями вида целых степеней. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
73
§ 8. Решение системы уравнений с нелинейностями вида тригонометрических, показательных функций и функции вида модуль . .. . . . . .
75
§ 9. Решение двухточечной краевой задачи для системы нелинейных
дифференциальных уравнений . .. . . . . . . . . . . . . . . . . . . . .. . . .
76
§ 10. Система алгебраических уравнений с комплексными корнями . .. .
78

Гл а в а
5. Идентификация параметров нелинейной динамической
системы; сглаживание, фильтрация, прогнозирование вектора
состояния . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82

§ 1. Постановка задачи . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
82
§ 2. Принципиальная схема организованного поиска . .. . . . . . . . . . . .
85
§ 3. Математическая модель для апробации алгоритмов . .. . . . . . . . . .
86
§ 4. Организованный
поиск
с
функцией
fmins
пакета
программ
MATLAB 5.2. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
88
§ 5. Система неявных алгебраических уравнений . .. . . . . . . . . . . . . .
90
§ 6. Сжимающий оператор. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
91
§ 7. Вычислительная схема организованного поиска при байесовской
интерпретации . .. . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . .
95
§ 8. Сглаживание, фильтрация и прогнозирование по наблюдениям
в шумах для нелинейной динамической системы. .. . . . . . . . . . . .
99
1. Математическая модель динамической системы и наблюдений. .
100
2. Принципиальный алгоритм сглаживания, фильтрации, прогнозирования (алгоритм СФП) . .. . . . . . . . . . . . . . . . . . . . . . . .
101
3. Качественное сравнение алгоритма СФП и алгоритма РФК . .. .
103
4. Рекуррентная форма для алгоритма СФП (РСФП) . .. . . . . . . .
105
5. О вычислении априорных первых и вторых статистических моментов . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. . .
107
6. Сглаживание и фильтрация для модели двухступенчатого интегратора с нелинейной обратной связью . .. . . . . . . . . . . . . . . . .
109
7. Идентификация скоростной характеристики интегратора и нелинейности типа «люфт» . .. . . . . . . . . . . . . . . . . . . . . . . . . . .
112
8. Следящая система с релейным приводом и петлей гистерезиса
113
9. Оценка главных моментов инерции твердого тела . .. . . . . . . . .
114
10. Нелинейная фильтрация при конечной памяти алгоритма . .. . . .
116

Оглавление
5

Гл а в а
6. Оценка векторов состояния по углам визирования . . . .
120

§ 1. Оценка вектора состояния космического объекта . .. . . . . . . . . . .
120
1. Уравнения движения и модель результатов наблюдений . .. . . . .
121
2. Схема алгоритма оценивания . .. . . . . . . . . . . . . . . . . . . . . . .
121
3. Результаты моделирования . .. . . . . . . . . . . . . . . . . . . . . . . .
124
§ 2. Оценки вектора состояния летательного аппарата, углов ориентации местной вертикали и юстировка бортовой визирной системы. .
126
1. Первичные навигационные ошибки и постановка задачи. .. . . . .
127
2. Нелинейная задача оценки навигационных параметров. .. . . . . .
130
3. Схема вычислений и результаты оценивания . .. . . . . . . . . . . .
131

Гл а в а
7. Оценка параметров стохастических моделей. . . . . . .. . .
135

§ 1. Оценка параметров скрытой марковской модели посредством полиномиальной аппроксимации вектора корней системы алгебраических уравнений. .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
135
1. Постановка задачи . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
137
2. Ограничения . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. .
138
3. Независимые параметры . .. . . . . . . . . . . . . . . . . . . . . . . . . .
138
4. Функция правдоподобия для СММ . .. . . . . . . . . . . . . . . . . . .
139
5. Эмпирические и аналитические статистики; уравнение для оценок параметров . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
140
6. Схема алгоритма для определения вектора оценок СММ . .. . . .
143
7. Оценка параметров СММ при n = m = 2. . . . . . . . . . . . . . . .
144
8. Последовательность СММ, демонстрирующая «сомнительность»
метода МП . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
147
§ 2. Оценка матрицы интенсивностей модели марковского процесса . .. .
150
1. Метод максимума правдоподобия при наблюдениях моментов
времени прямых переходов . .. . . . . . . . . . . . . . . . . . . . . . . .
151
2. Алгоритм оценки при наблюдениях состояний в моменты непрямых переходов . .. . . . . . . . . . . . . . . . . . . . . .. . . . . . . . .
154
3. Численный пример . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
156
4. Оценка прошлого и прогноз будущего . .. . . . . . . . . . . . . . . . .
158
Заключение . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
159

Гл а в а
8. Линейная оценка при плохо обусловленной матрице
и ошибках наблюдений — неопределенных функциях времени
160

§ 1. Введение . .. . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
160
§ 2. Варианты байесовского метода наименьших квадратов. .. . . . . . . .
162
§ 3. Алгоритм БМНК1 и анализ точности оценки . .. . . . . . . . . . . . . .
163
§ 4. Рекуррентная форма алгоритма БМНК1 . .. . . . . . . . . . . . . . . . .
166
§ 5. Сатистический анализ алгоритма БМНК2 . .. . . . . . . . . . . . . . . .
168
§ 6. Параметрическая модель тренда и метод алгоритмической компенсации . .. . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . . . . . . . . .
170
§ 7. Статистический анализ точности относительного позиционирования
по информации от одного искусственного спутника Земли . .. . . . .
173

Оглавление

Гл а в а
9. Конструирование управления движением в заданную
точку фазового пространства . . . . . . . . . . . . . . . . . . . . . . . .
179

§ 1. Введение . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
179
§ 2. Постановка краевых задач и метод их решения. .. . . . . . . . . . . . .
180
§ 3. Необходимые и достаточные условия оптимального быстродействия 183
§ 4. Этапы процесса вычислений . .. . . . . . . . . . . . . . . . . . . . . . . .. .
186
§ 5. Коррекция околокруговой орбиты малой тягой двух двигателей за
минимальное время . .. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
187
§ 6. Коррекция околокруговой орбиты и положения искусственного спутника Земли малой тягой двух двигателей за минимальное время. .
192
§ 7. Редукция краевой задачи к задаче на условный экстремум . .. . . . .
195
§ 8. Краевая задача для маневра летательного аппарата в вертикальной
плоскости. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
198
§ 9. Краевая задача для маневра летательного аппарата в пространстве
202

Список литературы . .. . . . . . . . . . . . . . . . . . . . .. . . . . . . . . . . . . .
205

ПРЕДИСЛОВИЕ

В книге изложены результаты работ автора по созданию и апробации нового метода численного решения некоторых прикладных задач —
метода полиномиальной аппроксимации.
Известно много прикладных задач, относящихся, например, к проблемам оценки неизвестных параметров и конструирования вектора
управления динамическими системами, для которых решение сводится
к общей задаче вычислительной математики: найти векторы θ1, θ2, ...
корней системы нелинейных алгебраических уравнений F(θ) = Y, задаваемых явно или неявно — посредством вычислительного процесса
(например, посредством численного интегрирования системы обыкновенных дифференциальных уравнений).
Широко применяемые итерационные методы решения общей задачи нельзя признать универсальными: сходимость вычислений обычно
достигается лишь при хорошем первом приближении вектора корней,
а также при хороших локальных свойствах функций в описании
системы, гарантирующих существование их производных, которые
необходимы при использовании многочисленных разновидностей градиентных методов — основ широко используемых вариантов метода
Ньютона.
Поэтому основная часть книги посвящена полиномиальной аппроксимации вектор-функции F −1(Y ), обратной заданной векторфункции F(θ), и ее применениям к численным решениям конкретных
нелинейных задач оценивания и управления. Алгоритм метода не
требует наличия первого приближения вектора корней, а использует
лишь априорные представления об области Ωθ существования этих
корней. Алгоритм реализует только операции численного интегрирования, что позволяет иметь недифференцируемые компоненты в составе
аппроксимируемых вектор-функций. Приближенное решение задачи
аппроксимации представляется отрезком векторного степенного ряда
по целым степеням компонент вектора Y , который при увеличении
длины отрезка сходится к истинному решению F −1(Y ) равномерно
на области ΩY , получаемой из Ωθ соответствующим отображением.
«Обучение» алгоритма метода состоит в вычислении компонент заданной вектор-функции в точках, покрывающих с некоторой плотностью
априорную область Ωθ.
Если заданная вектор-функция имеет компоненты, зависящие от
случайных величин, трактуемых, например, как случайные ошибки
наблюдений, то алгоритм метода доставляет приближения для вектора
условного математического ожидания случайного вектора корней.

Предисловие

Если в априорной области существует несколько векторов корней
при данном Y , то алгоритм аппроксимирует вектор среднего арифметического этих векторов.
Изложенные результаты применения полиномиальной аппроксимации к решению многочисленных прикладных задач позволяют автору
рекомендовать новый метод вычислителям-исследователям, которым
нужен надежный и эффективный численный способ нелинейной оценки и решения краевых задач при конструировании управления.
Имеется большое число фундаментальных монографий по вопросам оценивания и управления, снабженных обширной библиографией.
Целью же настоящей работы является лишь изложение нового метода вычислений и демонстрация его эффективности на конкретных,
далеко не тривиальных прикладных примерах. Поэтому библиография
содержит лишь упоминание о работах, имеющих непосредственное
отношение к излагаемому материалу.
Для общей задачи решения системы нелинейных алгебраических
уравнений сравнение с одним из вариантов метода Ньютона не проводилось. Сравниваемые методы требуют совершенно разного обеспечения
априорными данными: для метода Ньютона нужен вектор хорошего
первого приближения θ0, а для предлагаемого метода — априорная
область Ωθ существования корней.
Кроме того, алгоритм предлагаемого метода должен определять
многомерные интегралы и реализовать достаточно большой объем
вычислений. Однако после этого полиномиальная аппроксимация
вектор-функции F −1(Y ) доставляет приближенное решение с равномерно малой ошибкой для любого вектора Y ∈ ΩY .
Алгоритмы вариантов метода Ньютона должны начинать «новую
жизнь» после каждого изменения вектора Y .
Автор благодарит руководство ГОСНИИАС за эффективное содействие в работе над книгой.
Автор благодарит А. М. Шматкова за консультации по работе
с пакетом программ MiKTeX.
Автор признателен Г. Г. Богуславской за терпение и понимание
трудностей, возникших из-за занятости автора работой над книгой.

Г л а в а 1

ЛИНЕЙНЫЕ ОЦЕНКИ

ВЕКТОРА СЛУЧАЙНЫХ ПАРАМЕТРОВ

§ 1. Линейная оценка, оптимальная
в среднеквадратичном

Метод полиномиальной аппроксимации основывается на:
1) конструировании вектора W обобщенных наблюдений из компонент вектора Y фактических наблюдений и полиномиальных функций
этих компонент;
2) байесовском подходе, основанном на присвоении некоторой априорной стохастической меры вектору неизвестных параметров θ
и вектору W обобщенных наблюдений.
Присвоение стохастической меры позволяет в алгоритме полиномиальной аппроксимации использовать хорошо известный метод
построения линейной оценки, оптимальной в среднеквадратичном,
изложенный в основополагающих работах А. Колмогорова, Н. Винера,
В. Пугачева.
Ниже изложен упомянутый метод и представлено его развитие в
некоторых направлениях [2, 3, 8, 36].
Пусть вектор W ∈ Rm — случайный вектор наблюдений, θ ∈ Rn —
случайный вектор оцениваемых параметров.
Полагаем, что существуют априорные статистические данные о θ
и W
— первые и центральные вторые статистические моменты
компонент векторов θ, W , представленные векторами и матрицами: E(θ), E(W),
C0 = E((θ − E(θ))(θ − E(θ))T),

Q = E((W − E(W))(W − E(W))T),

L = E((θ − E(θ))(W − E(W))T).

Пусть зафиксирован вектор W. Хорошо известно, что приведенные
априорные
данные
позволяют
построить
вектор
Zθ(W, m)o ∈ Rn
оценки вектора θ, линейный относительно W
и оптимальный в
среднеквадратичном среди всех векторов Zθ(W, m), линейных относительно W.

Гл. 1. Линейные оценки вектора случайных параметров

Любой упомянутый вектор Zθ(W, m) представим формулой

Zθ(W, m) = z + Λ(W − E(W)),
(1.1)

где z — произвольный вектор размерности n × 1, Λ — произвольная
матрица размерности n × m.
Положим, что матрицы Co и C являются матрицами ковариаций
ошибок оценки, если векторы оценок суть Zθ(W, m)o и Zθ(W, m):

Co = E((Zθ(W, m)o − θ))(Zθ(W, m)o − θ)T )
и
C = E((Zθ(W, m) − θ))(Zθ(W, m) − θ)T ).

Для вектора линейной оптимальной оценки Zθ(W, m)o справедливо
матричное неравенство
Co ⩽ C.
(1.2)

Л е м м а 1.1.

Zθ(W, m)o = E(θ) + Λo(W − E(W)),
(1.3)

где
ΛoQ = L.
(1.4)

До к а з а т е л ь с т в о. Из (1.1) и (1.3) найдем выражения для векторов ошибок оценки и после осреднения получим матрицы C, Co.
Тогда справедливо тождество

C = Co + (Λ − Λo) Q(Λ − Λo)T + (ΛoQ − L)(Λ − Λo)T +

+ (Λ − Λo)(ΛoQ − L)T + (z − E(θ))(z − E(θ))T.
(1.5)

Второе и шестое матричные слагаемые в (1.5) — неотрицательно определенные матрицы. Поэтому равенство нулю третьего и четвертого
матричных слагаемых в (1.5) для любых матриц Λ служит достаточным
условием для выполнения (1.2).
Лемма 1.1 доказана.
С л е д с т в и е 1. Если Λ = Λo, то

Co = C0 − ΛoLT .
(1.6)

С л е д с т в и е 2. Пусть матрица ковариаций Q случайного вектора W неособенная (линейно независимы все компоненты W).
Тогда из (1.4)
Λo = LQ−1,
(1.7)

Co = C0 − LQ−1LT ,
(1.8)

σ2
i = σi(0)2 − liQ−1lT
i ,

где σ2
i — дисперсия ошибок оценки i-й компоненты вектора θ,
σi(0)2 — априорная дисперсия этой компоненты (i-й диагональный

§ 1. Линейная оценка, оптимальная в среднеквадратичном
11

элемент априорной матрицы C0), li есть i-я строка матрицы L.
Поэтому σ2
i < σi(0)2.
С л е д с т в и е 3. Пусть матрица ковариаций Q особенная, так
как некоторые компоненты случайного вектора W являются линейными комбинациями остальных компонент:

W T = ∥W T
1
(AW1)T
W T
2 ∥.

Здесь случайные векторы W1 и W2, имеющие размерности r1 × 1
и r2 × 1 соответственно, являются линейно независимыми, матрица A имеет размерность r3 × r1, r1 + r2 + r3 = m, матрица L
разбита на блоки
L = ∥L1
L1AT
L2∥.

Непосредственная проверка показывает, что в этом случае решение матричного уравнения (1.4) существует и имеет вид

Λo = ∥L1V1 + L2V2,1
0n,r3
L1V T
2,1 + L2V2∥,

где 0n,r3 — матрица размерности n × r3, все элементы которой равны нулю, V1,1 и V2,1 — верхний левый и нижний левый блоки матрицы,
обратной матрице ковариаций случайного вектора ∥W T
1
W T
2 ∥T.
Формулы, аналогичные вышеприведенным, справедливы и для общего случая, когда чередуются случайные и линейно независимые
компоненты и компоненты, являющиеся линейными комбинациями
предшествующих компонент.
С л е д с т в и е 4. Вектор линейной оптимальной оценки Z(W, m)o
является единственным.
Действительно, пусть существуют неравные друг другу векторы
оценок вида (1.3)

Z1(W, m)o = E(θ) + Λo
1(W − E(W))

и
Z2(W, m)o = E(θ) + Λo
2(W − E(W)).
Тогда

E((Z1(W, m)o − Z2(W, m)o)(Z1(W, m)o − Z2(W, m)o)T ) =

= (Λo
1 − Λo
2)Q(Λo
1 − Λo
2)T = (L − L)(Λo
1 − Λo
2)T = 0.

Поэтому векторы Z1(W, m)o и Z2(W, m)o совпадают почти всюду
на элементах вероятностного пространства при любых удовлетворяющих (1.4) весовых матрицах Λo. Вектор линейной оптимальной оценки
является единственным.
С л е д с т в и е 5. Пусть вектор W1 составлен из n первых компонент вектора W и имеет вид W1 = Bθ, где B — неособенная

Гл. 1. Линейные оценки вектора случайных параметров

матрица размерности n × n. Тогда оптимальная (и точная) оценка
вектора θ определяется равенством

Z(W, m)o = B−1W1.

Эта оценка не зависит от остальных компонент вектора W.
Поэтому первые n вектор-столбцов матрицы Λo должны образовывать квадратную матрицу B−1, а остальные элементы Λo должны
быть равны нулю. Так как вектор θ оценен без ошибок, то должны
равняться нулю все элементы матрицы ковариаций ошибок оценки Co, определяемой формулой (1.8).
В (1.8) матрица Co является разностью двух матриц, элементы которых имеют одинаковый порядок величин, если малы средние ошибки
оценки. Практика вычислений показала, что использование (1.8) часто
сопряжено с существенной потерей точности, так как оказываются отрицательными вычисленные диагональные элементы Co, являющиеся
дисперсиями ошибок оценки.
Из изложенного следует, что формулы для весовой матрицы Λo и
матрицы Co ковариаций ошибок оптимальной линейной оценки целесообразно преобразовать так, чтобы из них явно следовала структура
элементов этих матриц, если справедлива формула W1 = Bθ.
Далее полагаем, что матрица Q−1 существует. Положим

W T = ∥W T
1
hT ∥,

где W1 и h являются n- и (m − n)-мерными векторами. Пусть из
вектора W1 выдeлена аддитивная часть, линейная относительно θ,
и, следовательно, существует представление W1 = Bθ + v, где B —
неособенная матрица размерности n × n, v — случайный n-мерный
вектор. Тогда симметричная матрица Q может быть разбита на блоки:

Q =

P
RT

R Q(h)

,

где матрицы P, R, Q(h) имеют размерности n × n, (m − n) × n,
(m − n) × (m − n) соответственно.
Справедливы следующие представления для этих матриц:

P = E((W1 − E(W1))(W1 − E(W1))T ) =

= BC0BT + BL(v) + L(v)T BT + Q(v),

Q(h) = E((h − E(h))(h − E(h))T),

R = E((W1 − E(W1))(h − E(h))T) = BL(h) + L(v, h),
где
Q(v) = E((v − E(v))(v − E(v))T),

L(θ, v) = E((θ − E(θ))(v − E(v))T),

§ 2. Векторная мера нелинейности вектора W1
13

L(θ, h) = E(θ − E(θ))(h − E(h))T),

L(v, h) = E((v − E(v))(h − E(h))T).

Матрица Q−1 может быть представлена аналогичными по размерности и расположению блоками P1, Q1, R1:

Q−1 =

P1 RT
1
R1 Q1

.

Из тождества
QQ−1 = In,

где In — единичная матрица размерности n × n, следуют равенства

PP1 + RRT
1 = In,
PR1 + RQ1 = 0,
RT R1 + Q(h)Q1 = Im−n.

Кроме того,
L = ∥L1
L(θ, h)∥,
где
L1 = E((θ − E(θ))(W1 − E(W1))T ) = C0BT + L(θ, v).

Используя соотношения между блоками матриц Q и Q−1, найдем после
ряда преобразований:

Λo = B−1∥In − (L(θ, v)T BT + Q(v)) P1 − L(v, h)RT
1 −

− (L(θ, v)T BT + Q(v)) R1 + L(v, h) Q1∥,
(1.9)

Co = B−1(−L(θ, v)T + ((L(θ, v)T BT + Q(v)) P1 +

+ L(v, h) RT
1 )(BC0 + L(θ, v)T ) +

+ ((L(θ, v)T BT + Q(v)) R1 + L(v, h) Q1) L(θ, h)T .
(1.10)

Но если v = const, то матрицы L(θ, v), Q(v), L(v, h) состоят из элементов, равных нулю. Тогда из (1.9), (1.10) следует, что при v = const

Λo = ∥B−1
0m−n∥,
Co = 0,
Z(W, mo) = θ

и, следовательно, выполнены сформулированные выше качественные
требования к формулам для матриц Λo, Co.

§ 2. Векторная мера нелинейности вектора W1
по отношению к вектору θ

Далее полагаем m ⩾ n.
Из изложенного следует, что целесообразно из первых компонент
вектора W выделить аддитивную часть, которая бы линейно зависела

Гл. 1. Линейные оценки вектора случайных параметров

от вектора θ. Тогда, используя полученные формулы (1.9), (1.10),
можно уменьшить возможные ошибки вычислений, возникающие, если
вычитаются матрицы или векторы с близкими друг другу величинами
компонент.
Для этого достаточно изо всех m компонент вектора W составлять
всевозможные n-мерные векторы и путем перебора назначить W1 и
соответствующую матрицу B так, чтобы вектор случайной разности
v = W1 − Bθ был минимален в смысле некоторой средней нормы.
Наметим возможный путь рационального выбора матрицы B, если
вектор W1 уже составлен, например, из первых n компонент вектора W.
Для решения поставленной задачи достаточно построить линейную,
оптимальную в среднеквадратичном оценку ZW1(θ, n)o вектора W1,
используя линейную функцию от вектора θ, и весовую матрицу Λ
положить равной искомой матрице B. Из формул вида (1.4) и (1.5)
следует
ZW1(θ, n)o = E(W1) + Λ(θ − E(θ)),
где
Λ = LC−1
0 ,
L = E((W1 − E(W1))(θ − E(θ))T).

Отсюда
B = LC−1
0 .
(2.1)

Средней нормой ошибки оценки, представленной разностью v =
= W1 − Bθ, может служить какая-либо матричная норма от матрицы
ковариаций C(v) ошибок оценки, определяемой формулой

C(v) = E((W1 − E(W1))(W1 − E(W1))T ) − ΛLT .

Чем больше дисперсии ошибок оценки вектора W1 посредством линейной комбинации компонент вектора θ, представляемые диагональными элементами матрицы C(v), тем, в среднем, более существенна
нелинейная зависимость вектора W1 от вектора θ. Вектор, составленный из диагональных элементов C(v), можно назвать векторной мерой
нелинейности вектора W относительно вектора θ, статистически с ним
связанного. Если для некоторого W1 эта мера равна нулю, то вектор W1
является линейной функцией вектора параметров θ и оценивается без
ошибок.
Обобщая вышеизложенное, отметим, что аналогичным образом
можно определить векторную меру «квадратичности» и т. д.

§ 3. Декомпозиция наблюдений

Рассмотрим алгоритм построения вектора оценок Zθ(W, m)o, позволяющий найти этот вектор без вычисления элементов обратной
матрицы Q−1. Алгоритм основан на последовательной декомпозиции
вектора наблюдений и будет использован в дальнейшем при решении