Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Вычислительный вероятностный анализ: модели и методы

Покупка
Основная коллекция
Артикул: 766112.01.99
Изложен подход к использованию вычислительного вероятностного анализа для решения задач с неопределенными входными данными. Основное внимание уделено процессу обработки, представления, моделирования и анализа информации для разных типов неопределенности. Рассмотрены различные математические модели и численные методы их обработки, вопросы надежности результатов численного моделирования для разнообразных задач в условиях ограниченного и большого объемов информации. Даны примеры применения рассматриваемого подхода для практических задач цифровой экономики, надежности технических систем и оборудования. Разработанные алгоритмы могут быть использованы для исследования сложных систем с входными данными, обусловленными различными типами неопределенности. Предназначена для магистрантов, аспирантов и специалистов, занимающихся научными ис следования ми и работающих в области решения задач с неточными входными данными.
Добронец, Б. С. Вычислительный вероятностный анализ: модели и методы : монография / Б. С. Добронец, О. А. Попова. - Красноярск : Сиб. федер. ун-т, 2020. - 236 с. - ISBN 978-5-7638-4232-6. - Текст : электронный. - URL: https://znanium.com/catalog/product/1819612 (дата обращения: 24.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
 

Министерство науки и высшего образования Российской Федерации 
Сибирский федеральный университет 

Б. С. Добронец, О. А. Попова 

Вычислительный вероятностный анализ: 

модели и методы 

 
Монография 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
Красноярск 
СФУ 
2020 

УДК 
519.676 

ББК 
22.192.3 
Д564 

Р е ц е н з е н т ы:  
К. В. Сафонов, доктор физико-математических наук, профес
сор, заведующий кафедрой прикладной математики СибГУ им. 
М. Ф. Решетнёва; 

Г. А. Доррер, доктор технических наук, профессор, профессор 

кафедры системотехники СибГУ им. М. Ф. Решетнёва 
 
 
 
Добронец, Б. С. 
Д564  
Вычислительный вероятностный анализ: модели и методы : 
монография / Б. С. Добронец, О. А. Попова. – Красноярск : Сиб.  
федер. ун-т, 2020. – 236 с. 

ISBN 978-5-7638-4232-6 

Изложен подход к использованию вычислительного вероятностного анализа для 

решения задач с неопределенными входными данными. Основное внимание уделено 
процессу обработки, представления, моделирования и анализа информации для разных 
типов неопределенности. Рассмотрены различные математические модели и численные 
методы их обработки, вопросы надежности результатов численного моделирования для 
разнообразных задач в условиях ограниченного и большого объемов информации. Даны примеры применения рассматриваемого подхода для практических задач цифровой 
экономики, надежности технических систем и оборудования. Разработанные алгоритмы могут быть использованы для исследования сложных систем с входными данными, 
обусловленными различными типами неопределенности. 

Предназначена для магистрантов, аспирантов и специалистов, занимающихся 

научными исследованиями и работающих в области решения задач с неточными входными данными. 

 
 
Электронный вариант издания см.: 
УДК 519.676 
http://catalog.sfu-kras.ru 
ББК 22.192.3 
 
 
 
 
 
 
ISBN 978-5-7638-4232-6 
      © Сибирский федеральный университет, 2020 

Оглавление

Введение
6

1. Краткий обзор теории вероятностей
18
1.1. Понятие измеримости . . . . . . . . . . . . . . . . . . . . .
18
1.2. Борелевские σ-алгебры
. . . . . . . . . . . . . . . . . . . .
20
1.3. Вероятностные пространства и случайные величины
. . .
21
1.4. Лемма Doob–Dynkin . . . . . . . . . . . . . . . . . . . . . .
24
1.5. Интегрируемость и моменты случайных величин
. . . . .
25
1.6. Случайные векторы и их вероятностные распределения . .
26
1.7. Независимость и корреляция случайных величин
. . . . .
27
1.8. Произведение вероятностных пространств
. . . . . . . . .
28
1.9. Случайные поля
. . . . . . . . . . . . . . . . . . . . . . . .
29
1.10. Параметризация случайных коэффициентов
. . . . . . . .
32

2. Непараметрические оценки функций плотности вероятности
34
2.1. Гистограммы . . . . . . . . . . . . . . . . . . . . . . . . . .
34
2.2. Частотные полигоны . . . . . . . . . . . . . . . . . . . . . .
41
2.3. Ядерные оценки функции плотности вероятности
. . . . .
43
2.4. Экстраполяция Ричардсона и правило Рунге . . . . . . . .
45

3. Функциональный анализ данных
54
3.1. Введение . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
54
3.2. Примеры функциональных данных
. . . . . . . . . . . . .
58
3.3. Функциональные модели данных . . . . . . . . . . . . . . .
61
3.4. Цели функционального анализа данных . . . . . . . . . . .
65
3.5. Функциональная регрессия . . . . . . . . . . . . . . . . . .
65
3.6. Прогноз плотности . . . . . . . . . . . . . . . . . . . . . . .
68

3

4. Символьный анализ данных
74
4.1. Символьные данные . . . . . . . . . . . . . . . . . . . . . .
76
4.2. Типы переменных
. . . . . . . . . . . . . . . . . . . . . . .
79
4.3. Классические переменные . . . . . . . . . . . . . . . . . . .
80
4.4. Новые типы переменных . . . . . . . . . . . . . . . . . . . .
80
4.5. Категориальные многозначные переменные . . . . . . . . .
82
4.6. Квантильное представление . . . . . . . . . . . . . . . . . .
83
4.7. Другие типы символьных данных
. . . . . . . . . . . . . .
84
4.8. Методы анализа символьных данных
. . . . . . . . . . . .
85
4.9. Символьная регрессия . . . . . . . . . . . . . . . . . . . . .
86
4.10. Анализ временных рядов
. . . . . . . . . . . . . . . . . . .
87

5. Функции случайных переменных
88
5.1. Алгебра случайных переменных
. . . . . . . . . . . . . . .
88
5.2. Вероятностные расширения . . . . . . . . . . . . . . . . . .
90
5.3. Одномерный случай . . . . . . . . . . . . . . . . . . . . . .
95
5.4. Случай двух переменных
. . . . . . . . . . . . . . . . . . .
97
5.5. Многомерный случай
. . . . . . . . . . . . . . . . . . . . . 101
5.6. Краевые задачи со случайными коэффициентами
. . . . . 103
5.7. Надежные оценки эмпирических распределений . . . . . . 105

6. Алгебраические задачи с неопределенностями
116
6.1. Интервальные СЛАУ
. . . . . . . . . . . . . . . . . . . . . 116
6.2. Системы линейных алгебраических уравнений со случайными коэффициентами
. . . . . . . . . . . . . . . . . . . . 120
6.3. Использование вероятностных расширений . . . . . . . . . 124
6.4. Совместное использование метода Монте-Карло и вычислительного вероятностного анализа
. . . . . . . . . . . . . 127
6.5. Решения нелинейных уравнений . . . . . . . . . . . . . . . 128
6.6. Системы нелинейных уравнений . . . . . . . . . . . . . . . 130

7. Временные ряды распределений
134
7.1. Основы временных рядов распределений
. . . . . . . . . . 137
7.2. Оценка погрешности для временных рядов распределений
137
7.3. Прогноз временных рядов распределений . . . . . . . . . . 138
7.4. Методы сглаживания для временных рядов распределений 140
7.5. Метод расщепления
. . . . . . . . . . . . . . . . . . . . . . 146
7.6. Численный пример . . . . . . . . . . . . . . . . . . . . . . . 148

4

8. Случайное программирование
152
8.1. Постановка задачи . . . . . . . . . . . . . . . . . . . . . . . 155
8.2. Случайное линейное программирование . . . . . . . . . . . 156
8.3. Случайное нелинейное программирование . . . . . . . . . . 160

9. Регрессионный анализ
163
9.1. Регрессионные модели над эмпирическими распределениями164
9.2. Агрегация данных . . . . . . . . . . . . . . . . . . . . . . . 167
9.3. Регрессионное моделирование на основе агрегированных
данных . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.4. Классическая параметрическая регрессия . . . . . . . . . . 171
9.5. Метрики в пространстве распределений . . . . . . . . . . . 172
9.6. Регрессия над эмпирическими распределениями . . . . . . 173
9.7. Эмпирическая функциональная регрессия . . . . . . . . . . 174
9.8. Применение регрессионного подхода к функциональным
временным рядам . . . . . . . . . . . . . . . . . . . . . . . . 177

10. Приложения ВВА
181
10.1. Проблемы цифровой экономики
. . . . . . . . . . . . . . . 182
10.2. Методика построения гарантированых оценок показателей
надёжности . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
10.3. Оценка показателей надежности . . . . . . . . . . . . . . . 196
10.4. Обработка и анализ гидрологических данных
спутникового мониторинга
. . . . . . . . . . . . . . . . . . 202
10.5. Оптимизация выработки электроэнергии гидроэлектростанцией в условиях неопределенности . . . . . . . . . . . . . . 208
10.6. Технология извлечения и визуализации знаний
. . . . . . 212
10.7. Визуально-интерактивная анимация . . . . . . . . . . . . . 216

Заключение
222

Список литературы
224

5

Введение

Монография посвящена вопросам исследования сложных систем на
основе применения современных математических методов представления, численного моделирования и анализа в условиях различных видов
неопределенности данных. Большинство компьютерных моделей для инженерных приложений разрабатываются для того, чтобы помочь оценить проектные или нормативные требования. В рамках этой задачи
критически важна способность количественно оценить влияние изменчивости и неопределенности в контексте принимаемого решения. Вычислительная стоимость инженерных имитационных моделей довольно
дорога: для моделирования с конечными элементами высокой точности
может потребоваться несколько часов или дней, десятки процессоров.
Таким образом, понимание того, как работают методы снижения уровня
неопределенности и их относительные преимущества и затраты, очень
важно.
В работе обсуждаются и находят дальнейшее развитие идеи, представленные в монографии [17], рассматриваются новые, активно развивающиеся направления анализа данных, такие как вероятностный анализ
(probabilistic analysis), функциональный (functional analysis) и символьный анализ (symbolic analysis). Изучаются новые аспекты повышения
точности и организации вычислительного процесса обработки и анализа данных, связанные с разработкой технологии быстрых и надежных
вычислений.
Предлагаются новые методы и алгоритмы, учитывающие такие виды
информационной неопределенности, как элиторная (aleatory uncertainty)
и эпистемическая (epistemic uncertainty). Теория вероятностей предназначена для моделирования, оценки и оперирования именно элитерными
неопределенностями. Элиторная неопределенность характеризует присущую случайность в поведении системы или в стадии ее изучения. Она
включает в себя: изменчивость, стохастическую неопределенность. Примерами случайной неопределенности являются отказы компонентов си
6

стемы, полученные в результате статистически значимых испытаний в
условиях, относящихся к применению. Элиторные неопределенности характеризуются частотными распределениями.
В свою очередь, неопределённость самих вероятностных оценок называют эпистемической. Эпистемическая неопределённость прямо связана
с объёмом и достоверностью информации, на основании которой получаются эти оценки [68].
Эпистемические неопределенности могут быть устранены путем более глубокого понимания (исследования), на основе увеличения объема
данных или с помощью более новых достоверных предположений.
Проблема надежных вычислений сегодня выходит на передний план
среди проблем вычислительной математики. Следует отметить, что значительную часть производимых сегодня в мире вычислений нельзя назвать надежными, поскольку методы обеспечения надежности еще не
получили должного распространения, а после выполнения обычных вычислений пользователи не всегда могут получить убедительные аргументы относительно важнейших свойств полученного решения, в том числе
и его точности.
Надежные вычисления (reliable computing) достигаются с учетом многих факторов, прежде всего оценками погрешности вычислительных алгоритмов и учетом неопределенностей входных данных. В этой связи
важное значение приобретают апостериорные оценки погрешностей результатов численного моделирования [35]. Для практической реализации
идеи повышения надежности вычислений важную роль сыграли достижения интервальной математики. Корректные интервальные вычисления гарантируют выполнение важнейших свойств численного решения и
прежде всего — его локализацию.
В настоящее время актуализировалась проблема применения и разработки вычислительных технологий, реализующих технику быстрых
и надежных вычислений для решения разнообразных практических задач, имеющих отношение к исследованию состояний и процессов функционирования сложных систем. Например, использование систем искусственного интеллекта в технике и других областях неизбежно приводит
к необходимости обработки огромных массивов информации, поступающих в устройства. В этой связи специалисты по созданию интеллектуальных систем столкнулись с проблемой обработки данных объемов
(big data). Отметим также задачи, которые решаются в рамках бизнесаналитики, дистанционного мониторинга распределенных систем, робо
7

тотехники, гидро- и атомной энергетики, при анализе отказов технических систем ответственного назначения, оценки и прогрнозирования
техногенных, экологических, экономических и других видов рисков и т.
д. Информация, которая составляет основу подобных задач, характеризуется имеющимся объемом данных, неоднородностью, динамичностью,
уровнем и различными видами неопределенности.
Специфика сложности исследования таких систем обусловливается
как объективными, так и субъективными аспектами. К объективным аспектам можно отнести следующие три группы факторов. Первая группа
обусловливается внутренней сложностью системы как таковой. Вторая —
внешней сложностью, непредсказуемостью, неопределенностью явлений
и процессов, влияющих на систему и взаимодействующих с ней. Третья
группа факторов связана с особенностями имеющейся у исследователя
эмпирической информации и возможностями для ее обработки и анализа. Субъективный аспект связан прежде всего с тем, что практикам
необходимо иметь определенный уровень доверия к применяемым математическим моделям и методам. Для них важно иметь убедительный
ответ на вопрос, суть которого заключается в возможности получить достоверные, обоснованные результаты исследований, позволяющие установить с помощью численных расчетов достаточно полезную и реалистичную картину последствий принимаемых управленческих решений,
несмотря на тот факт, что информация, на основе которой принимается
решение, носит существенно неопределенный характер.
Обеспечение необходимой надежности и сложность исследования таких систем требует привлечения большого объема материальных, финансовых, интеллектуальных, временных, информационных и других ресурсов. При этом практика показывает, что привлекаемые ресурсы и вложения их в исследования не всегда пропорциональны требуемому уровню
надежности и качеству функционирования систем в условиях различных видов неопределенности. Поэтому изучение способов и разработка
новых моделей и методов представления информационной неопределенности в данных, обоснованное применение известных методов моделирования и разработка новых, реализующих перечисленные выше аспекты,
представляет собой актуальную задачу.
Существующая неопределенность информации отражается в данных.
Можно выделить три типа «неопределенных» данных: случайные, нечеткие и интервальные. Случайные числа задаются некоторыми вероятностными распределениями их возможных значений, нечеткие данные зада
8

ются лингвистически сформулированными распределениями их возможных значений, интервальные данные задаются интервалами их возможных значений без указания какого-либо распределения внутри заданного
интервала [101, 10, 50]. Изучение интервальной неопределенности способствовало созданию интервального анализа. Для случайной неопределенности знание законов распределения случайных величин позволяет
оценивать параметры стохастических систем, используя метод МонтеКарло. Теория нечетких множеств широко используется для моделирования систем и принятия решений. В настоящее время для ряда задач
в условиях стохастической неопределенности используется вычислительный вероятностный анализ [17, 31, 33, 71, 76].
В ряде случаев он успешно заменяет метод Монте-Карло [27, 39, 51],
обладая значительно более высокой скоростью сходимости. В отличие
от метода Монте-Карло он направлен на непосредственное построение
распределений вероятности выходных переменных. Это существенно повышает качество полученных численных решений.
Для оценки качества решений важное значение имеет надежность полученных результатов. Любое измерение и методы его обработки содержат неточности. Рассмотрим последовательно этапы «эпохи» развития
надежных вычислений. До «эпохи» надежных вычислений использовали «сырые данные» без предварительной обработки. Первый этап надежных вычислений заключался в статистической обработке и приближенном вычислении различных статистических характеристик. Ошибки
численных методов приближенно оценивались с помощью двусторонних
методов, например, правило Рунге, машинные арифметики не учитывали ошибки округления на компьютерах [21].
Второй этап — эра интервального анализа (ИА) началась с 50-х годов
прошлого века. На этом этапе неопределенные данные представлялись
в виде интервальных данных. Машинные арифметики, используемые в
ИА, уже учитывали ошибки округления, а ошибки численных методов
оценивались с помощью интервалов. ИА дает полностью гарантированные оценки, при этом значительно увеличивая время работы алгоритмов. К недостаткам интервального анализа можно отнести значительную
ширину интервальных оценок по сравнению с оптимальными. ИА не использует информацию о возможных распределениях входных данных и
соответственно не дает внутреннего распределения результатов вычислений, которые часто оказывались сосредоточенными только в небольших областях. Интервальные данные можно отнести к эпистимическому

9

типу неопределенности. Несмотря на указанные недостатки интервальный анализ позволяет эффективно решать многие практические задачи
и широко используется при численном моделировании, например [24].
Третий этап — использование распределенных данных, в частности
функций плотностей вероятности. Понятие распределенных данных —
достаточно новое и появилось в научной литературе совсем недавно. Начало было положено разработкой численных операций над плотностями случайных величин, включая гистограммную арифметику. Одно из
интересных представлений распределенных данных — символьные данные. Символьные данные были описаны Edwin и Diday в 1987 году [58].
Символьные переменные позволяют описывать группы индивидов и понятия. Символьные переменные включают списки значений (с весами
или без них), интервальные переменные и даже гистограммы. Символьные представления могут включать внутреннюю структуру (иерархии)
и логическую зависимость (правила).
Другой подход, при котором данные представляются в агрегированном виде, получил название Granular Computing (см., например, [112]).
Информационные гранулы определяются, как группы отдельных наблюдений, которые отражают семантику абстрактных объектов, представляющих интерес. Как правило, с учетом набора данных D, в результате
грануляции получается набор гранул, образованных на основе сходства
или близости, которая может быть достигнута, например, с помощью алгоритмов кластеризации. Когда данные числовые, гранулы часто принимают форму гиперкубов. Информационные гранулы, описанные в теории
нечетких множеств, представляются с помощью функции принадлежности. Распределенные переменные позволяют описывать каждую группу
переменных посредством распределений. Распределения не используют
статистические данные, такие как среднее, дисперсия, минимум и максимум и т. д. На практике сосредоточиваются на представлениях, которое
лучше подходят для решения проблемы. Методы для распределенных
данных включают в себя следующие разделы: описательная статистика, регрессия, кластеризация, уменьшение размерности, прогнозирование временных рядов, методы визуализации. Параллельно с символьным
анализом развивается вычислительный вероятностный анализ (ВВА).
Вычислительный вероятностный анализ разработан как новое направление в вычислительной статистике (Computational Statistics) и предназначен для решения практических задач, связанных с исследованиями
сложных систем в условиях различных видов неопределенности и типов

10

эмпирических данных. Основой ВВА являются численные операции над
плотностями случайных величин. В ВВА используются различные типы
представления плотностей случайных величин: дискретные, гистограммы, полигоны, кусочно-полиномиальные модели и аналитическое представление. Использование порядковых статистик и случайных интерполяционных полиномов позволяет строить достоверные оценки функций
распределения [36].
Одним из основных разделов вычисленного вероятностного анализа
являются арифметики над данными, представленными в виде кусочнополиномиальных функций.
В рамках ВВА реализуется подход, созвучный тезису «распределения
— числа будущего» (Distributions are the Numbers of the Future), сформулированному в 1984 году B. Schweizer [126].
Суть данного подхода реализует идею представления эмпирических
данных в виде функций распределений на основе применения кусочнополиномиальных моделей. Разработанные в рамках ВВА численные арифметики и использование нового понятия «вероятностное расширение»
позволили авторам разработать методы численного моделирования и
анализа распределений, которые можно рассматривать как особый вид
переменных, над которыми выполняются соответствующие операции и
процедуры.
Отметим, что ВВА оперирует в первую очередь с понятиями функции плотности вероятности (ФПВ) и для изучения свойств изменчивости
данных и разработки численных операций над ними использует ФПВпредставление в виде кусочно-полиномиальных моделей.
Применение его методов и процедур позволяет представить выходное
распределение вероятностей как функцию входных распределений и использовать методы анализа неопределенностей, чтобы оценить влияние
входных неопределённостей, привносимых входными характеристиками,
на неопределенность выходных параметров модели.
Для построения распределений используются специальные способы
агрегации данных [73, 74], рассматриваются задачи интерполяции [36],
задачи оценки надежности.
В рамках ВВА решаются задачи случайной оптимизации [69, 113],
повышения точности и оценок погрешности получаемых решений [35, 71].
Как показал анализ литературы, проблема снижения уровня неопределенности в исходных данных и повышения эффективности численных
методов представления, обработки, моделирования и анализа в течение

11

многих десятилетий находится в центре внимания и остается предметом
многих научных исследований. Наиболее значимые результаты в данной предметной области были получены учеными: B. Liu [95], S. Ferson
[85, 86], A. Neumaier [107, 108], H. Schjaer-Jacobsen [125], D. Dubois [22],
О. И. Ужга-Ребровым [42, 43, 44, 45, 46].
Актуализировалась проблема вычисления и анализа неопределённости выходных характеристик системы, индуцированных неопределённостями на её входах [19]. Среди публикаций, посвященных вопросам оценивания, анализа, управления неопределенностями следует указать на
работы О. И. Ужга-Реброва. Можно выделить три основных группы методов, направленных на исследование и решение данной проблемы [42]:
методы представления и оценивания неопределённости на выходе (выходах) модели, в зависимости от вида и уровня неопределённости на
её входах (методы распространения неопределённостей); методы расчёта
эффекта изменений на входах на предсказания модели, т. е. анализ чувствительности; методы сравнения важности входных неопределённостей
в терминах их относительных вкладов на неопределённость на выходе
(выходах), т. е. анализ неопределённостей.
Наиболее общий и распространенный метод включения неопределенности в моделирование состоит в том, чтобы предположить определенные распределения неопределенных входных значений, произвести выборку из этих распределений, запустить модель с выбранными значениями и делать это многократно, чтобы создать распределение выходных
данных. Это классическое распространение неопределенности.
Для анализа и распространения элиторных и эпистемических неопределенностей в инженерных моделях используются также подходы: методы с использованием выборки на основе латинского гиперкуба (Latin
Hypercube sampling), аналитические методы надежности (Аnalytic Reliability Methods) и методы разложения по полиномиальному хаосу (Polynomial Chaos Expansions) [78]. Эти методы являются альтернативными
методами статистических испытаний, но опираются на аналитические
вычисления и требуют от входных данных определенных свойств гладкости и принадлежности к гауссовым распределениям.
Методы построения выборки могут быть различными, например, можно использовать метод статистических испытаний (метод Монте-Карло),
включая построение стратифицированной выборки (Latin Hypercube sampling), которая распределяет выборки по пространству, или квазивыборку, построенную методом Монте-Карло, который является способом гене
12

рации последовательностей, приближающихся к равномерному распределению.
Отметим, что при решении проблемы снижения уровня выходной неопределенности важное значение имеет способ получения дополнительных оснований (знаний), снижающих уровень неопределенности во входных данных. Чтобы получить необходимые основания для оценки или
восстановления неизвестного входного распределения на основе неполной, неточной информации, можно использовать различные процедуры
и способы представления неопределенностей. Например, P-boxs [86], облака [108], интервальные гистограммы, гистограммы второго порядка
[19].
Как один из подходов к идее «распространения неопределенности»
использовался метод вероятностных границ (Probability bounds). Его основная идея в том, что функция неизвестного распределения вероятностей (Сumulative Distribution Function) должна лежать в обрасти — ящике (box), ограниченная нулем и единицей по вертикали и от минимума
и максимума горизонтально. Истинная функция распределения, какой
бы она ни была, должна находиться в этой области. Облака Неймайера
(Neumaier’sclouds) являются еще одним способом представления неопределенности, выступая посредником между понятием нечеткого множества и вероятностным распределением [108].
В рамках основных подходов к распространению неопределенности
следует указать также на математическую теорию очевидностей (свидетельств) Демпстера–Шафера [128], основанную на функции доверия
(belief functions) и функции правдоподобия (plausible reasoning), которые используются, чтобы скомбинировать отдельные части информации
(свидетельства) для вычисления вероятности события. Данная теория
позволяет построить необходимые основания в условиях неопределенности путем оценки верхней и нижней границы интервала возможностей.
Среди подходов к распространению неопределенностей следует особенно выделить метод, который опирается на понятие «вероятность второго порядка», и известен как second-order probability. Данный подход
представляет собой метод, позволяющий строить вероятностные оценки
в случае эпистемистической неопределенности. Концепция вероятностей
второго порядка была изложена в 1996 году в работах A. Mosleh и V.
M. Bier. Анализ публикаций показал, что, несмотря на то, что данное
направление достаточно активно развивается за рубежом, понятие «вероятность второго порядка» еще находится в стадии определения [103].

13