Книжная полка Сохранить
Размер шрифта:
А
А
А
|  Шрифт:
Arial
Times
|  Интервал:
Стандартный
Средний
Большой
|  Цвет сайта:
Ц
Ц
Ц
Ц
Ц

Последовательности Фишберна для принятия решений в экономике

Покупка
Основная коллекция
Артикул: 736279.01.01
Доступ онлайн
от 308 ₽
В корзину
Монография посвящена применению формул Фишберна и их обобщений, последовательностей Фишберна, в экономике, прежде всего для корректного моделирования процессов принятия управленческих решений в поле различных информационных ситуаций. Кроме того, в монографии кратко изложены необходимые сведения о классических последовательностях натуральных чисел, сведения из теории энтропии, теории экономических рисков, теории игр и статистических решений. Монография завершает исследование авторов по применению последовательностей Фишберна в экономике и управлении, содержит ряд положений и научных результатов, ранее не публиковавшихся. Будет полезной специалистам-практикам, менеджерам, специалистам по экономико-математическому моделированию, ученым, преподавателям, аспирантам, студентам.
Сигал, А. В. Последовательности Фишберна для принятия решений в экономике : монография / А.В. Сигал, Е.С. Ремесник. — Москва : ИНФРА-М, 2021. — 256 с. — (Научная мысль). — DOI 10.12737/1089679. - ISBN 978-5-16-016250-8. - Текст : электронный. - URL: https://znanium.ru/catalog/product/1089679 (дата обращения: 24.04.2024). – Режим доступа: по подписке.
Фрагмент текстового слоя документа размещен для индексирующих роботов. Для полноценной работы с документом, пожалуйста, перейдите в ридер.
ПОСЛЕДОВАТЕЛЬНОСТИ 
ФИШБЕРНА
ДЛЯ ПРИНЯТИЯ
РЕШЕНИЙ В ЭКОНОМИКЕ

А.В. СИГАЛ
Е.С. РЕМЕСНИК

Москва
ИНФРА-М
2021

МОНОГРАФИЯ

УДК 330.46(075.4)
ББК 65в6
 
С34

Сигал А.В.
С34  
Последовательности Фишберна для принятия решений в экономике : монография / А.В. Сигал, Е.С. Ремесник. — Москва : ИНФРА-М, 
2021. — 256 с. — (Научная мысль). — DOI 10.12737/1089679.

ISBN 978-5-16-016250-8 (print)
ISBN 978-5-16-108563-9 (online)
Монография посвящена применению формул Фишберна и их обобщений, последовательностей Фишберна, в экономике, прежде всего для корректного моделирования процессов принятия управленческих решений 
в поле различных информационных ситуаций. Кроме того, в монографии 
кратко изложены необходимые сведения о классических последовательностях натуральных чисел, сведения из теории энтропии, теории экономических рисков, теории игр и статистических решений. Монография завершает исследование авторов по применению последовательностей Фишберна 
в экономике и управлении, содержит ряд положений и научных результатов, ранее не публиковавшихся.
Будет полезной специалистам-практикам, менеджерам, специалистам 
по экономико-математическому моделированию, ученым, преподавателям, аспирантам, студентам.

УДК 330.46(075.4)
ББК 65в6

Р е ц е н з е н т ы:
Пискун Елена Ивановна, доктор экономических наук, профессор 
кафедры «Финансы и кредит» Севастопольского государственного 
университета (Севастополь);
Орлова Елена Роальдовна, доктор экономических наук, заведующий 
отделом «Информационные технологии оценки эффективности инвестиций» Федерального исследовательского центра «Информатика 
и управление» Российской академии наук (Москва)

Исследование выполнено при финансовой поддержке 
Российского фонда фундаментальных исследований 
в рамках научного проекта № 18–010–00688

Рекомендовано к печати Научно-техническим советом 
Крымского федерального университета имени В.И. Вернадского 
(протокол № 1 от 05.03.2020)

ISBN 978-5-16-016250-8 (print)
ISBN 978-5-16-108563-9 (online)
© Сигал А.В., Ремесник Е.С., 
2020

Предисловие

Моделирование процессов принятия решений в экономике требует учета ряда специфических условий. В первую очередь, следует учитывать, что экономика представляет собой динамическую, 
слабоструктурированную сложную систему, состоящую из многих 
элементов, в том числе из большого количества хозяйствующих 
единиц, находящихся в довольно тесном, непрерывном взаимодействии. Кроме того, экономика имеет ярко выраженную иерархическую, многоуровневую структуру, при этом каждый уровень 
иерархии интегрирует по определенным правилам (алгоритмам) 
информационные сигналы (потоки) другим уровням иерархии 
и оперирует информационными агрегатами. Характерными особенностями, присущими практически любой ситуации в социально-экономических системах, являются такие особые категории, как 
хаотичность, непредсказуемость и случайность, неопределенность, 
конфликтность и порожденный ими экономический риск.
При обосновании и принятии управленческих решений в различных областях экономики в условиях неопределенности, конфликтности и экономического риска особую роль играет статическая модель принятия решений, которую еще называют статистической игрой. Статистическая игра представляет собой игру двух 
участников, в которой первый игрок является лицом, принимающим решения, активно и осмысленно выбирающим свои стратегии, а второй — «природой», т.е. экономической средой в случае 
теоретико-игрового моделирования экономики. «Природа» пассивно выбирает свои чистые стратегии, т.е. случайным образом 
(неосознанно) оказывается в одном из своих возможных состояний.
В отличие от непосредственного расчета распределения вероятностей, при моделировании поиска оптимального решения 
более естественным является установление определенного типа 
отношения порядка, задаваемого лицом, принимающим решения, 
на основе имеющейся в его распоряжении информации, его 
опыта, интуиции и условий обстановки принятия решений. Согласно классификации информационных ситуаций, предложенной 
Р.И. Трухаевым, задание отношений порядка на компонентах множества состояний экономической среды характерно для принятия 
решений в поле третьей информационной ситуации. Аналогичная 
ситуация имеет место, когда требуется оценить значения удельных 
весов рассматриваемых критериев, показателей или факторов, значимость которых, измеренную в некоторой шкале, характеризуют 
числа, имеющие разные абсолютные значения.

В монографии рассматривается случай, когда элементы последовательности, используемой в качестве оценки, например, распределения вероятностей возможных состояний экономической среды 
или вектора весовых коэффициентов, подчиняются соответствующему линейному отношению порядка. Эти отношения порядка 
были подробно изучены Питером Фишберном и приведены, например, в известной монографии Р.И. Трухаева «Модели принятия 
решений в условиях неопределенности». Формулы, предложенные 
П. Фишберном и приведенные в монографии Р.И. Трухаева, 
а также их обобщения, например, такие, как обобщенные прогрессии 
Фишберна, последовательности Фишберна, а также последовательности Фишберна второго порядка, могут быть применены, 
например, для построения оценок распределения вероятностей 
возможных состояний экономической среды или для построения 
оценок вектора весовых коэффициентов.
В теории и практике применяются линейные отношения порядка разных классов, наиболее важными и распространенными 
из которых являются два отношения: так называемые простое 
линейное отношение порядка и частично усиленное линейное отношение порядка. В монографии уточняются понятия, введенные 
авторами ранее: понятие последовательностей Фишберна, одним 
из важнейших свойств которых является то, что они всегда удовлетворяют простому линейному отношению порядка, а при определенных условиях — и частично усиленному линейному отношению 
порядка, а также понятие последовательностей Фишберна второго 
порядка. Отличительным и характерным свойством последовательностей Фишберна второго порядка является то, что они представляют собой монотонные последовательности, которые не обязаны 
обладать свойством строгой монотонности и каждое свое возможное значение могут принимать несколько раз подряд.
Понятие последовательностей Фишберна было введено в монографии авторов «Последовательности Фишберна и их применение 
в современной теории портфеля», в которой было уделено особое внимание применению последовательностей Фишберна в современной 
теории портфеля, в частности, исследовалась зависимость множества 
допустимых портфелей и множества эффективных портфелей от применяемой оценки распределения вероятностей состояний экономической среды (фондового рынка). В монографии «Последовательности Фишберна и их применение в современной теории портфеля» 
были приведены конкретные задачи поиска эффективного портфеля 
в условиях, когда в качестве оценки распределения вероятностей состояний использовались различные последовательности Фишберна.
В поле так называемой третьей информационной ситуации на основе вербальной (или статистической) информации можно на каче
ственном уровне установить приоритетность (отношения порядка) 
рассматриваемых объектов (например, состояний экономической 
среды, критериев эффективности, показателей или факторов). Это 
означает, что для каждой пары рассматриваемых объектов можно 
указать, какой из них имеет больший приоритет (собственно, характеризуется бо льшим значением приоритетности, по сути — бо льшим 
значением уровня значимости), либо указать, что они являются эквивалентными (имеют одинаковую приоритетность, значимость). 
Кроме того, следует учитывать, что компоненты вектора, характеризующего приоритетность рассматриваемых объектов, обязаны 
удовлетворять двум основным требованиям: условию нормировки, 
согласно которому сумма всех компонент соответствующего вектора 
должна равняться числу 1, и требованиям неотрицательности всех 
этих компонент. Аналогично этим двум требованиям должны удовлетворять компоненты оценки вектора, характеризующего распределение вероятностей возможных состояний экономической среды.
По мнению авторов, наиболее пристального внимания требует 
случай, когда лицо, принимающее решения, считает, что значения 
неизвестных компонент оценки вектора, характеризующего приоритетность рассматриваемых объектов, удовлетворяют частично 
усиленному линейному отношению порядка. Например, в экономических исследованиях в качестве исходной статистической информации часто используют динамические ряды, образованные 
значениями выбранных экономических показателей, наблюдавшихся в прошлые периоды времени. Разумеется, перенумерация 
выбранных моментов времени, упорядоченных хронологически, 
нецелесообразна и нежелательна, а ситуация, сложившаяся в предшествующий момент времени, более удаленный от настоящего 
момента времени, оказывает на нынешнюю ситуацию меньшее 
влияние, чем ситуация, сложившаяся в предшествующий момент 
времени, более приближенный к настоящему моменту времени. 
Другими словами, с точки зрения динамики, более ранний период 
времени обладает меньшей значимостью (информативностью) 
и, соответственно, меньшим приоритетом, чем более поздний период времени. Если при этом лицо, принимающее решения, считает, что динамические изменения характеризуются быстрыми темпами, то в этом случае уровень значимости очередного периода времени не меньше совокупного (суммарного) уровня значимости всех 
предшествующих периодов времени, вместе взятых, т.е. оценка распределения вероятностей состояний экономической среды должна 
представлять собой строго возрастающую последовательность, 
удовлетворяющую частично усиленному линейному отношению 
порядка. Именно ситуация, когда справедливо частично усиленное 
линейное отношение порядка, представляет собой особый интерес, 

обладает наибольшими особенностями и характеризуется наиболее существенными отличиями от ситуации, когда применяются 
традицион ные статистические оценки распределения вероятностей.
Важно подчеркнуть, что рассматриваемые последовательности 
изучаются с позиций их энтропийных свойств, т.е. с точки зрения 
их соответствия принципу Гиббса — Джейнса максимума энтропии, 
согласно которому наиболее характерным распределением вероятностей возможных состояний экономической среды следует считать вектор, максимизирующий на множестве всех допустимых 
распределений вероятностей значение энтропии Шеннона.
Понятие последовательностей Фишберна второго порядка было 
введено в монографии авторов «Последовательности Фишберна 
и их применение в экономических исследованиях», в которой 
было уделено особое внимание применению последовательностей 
Фишберна в нечетком когнитивном моделировании и в моделях 
с количественными факторами.
Монография состоит из шести глав: «Энтропия Шеннона 
и принцип Гиббса — Джейнса», «Введение в теорию экономического риска», «Элементы теории игр и статистических решений» 
«Последовательности Фишберна», «Применение последовательностей Фишберна в современной теории портфеля» «Применение 
последовательностей Фишберна в экономических исследованиях».
Первые три главы носят вспомогательный, подготовительный 
характер, поэтому многие утверждения приводятся в них без доказательств. Материал, изложенный в этих главах, позволяет лучше 
понять особенности применения последовательностей Фишберна 
в экономике и управлении. Значительная часть материала этих 
глав была изложена в предыдущих публикациях авторов, в частности, в упомянутых выше монографиях. Для удобства читателей 
соответствующие сведения сохранены и в этой монографии.
Последние три главы представляют итог исследований авторов 
по выявлению свойств введенных понятий, в частности, обобщенных 
прогрессий Фишберна, последовательностей Фишберна, последовательностей Фишберна второго порядка, и выяснению возможностей и особенностей их применения в экономике и управлении.
Авторы выражают благодарность профессорам Н.В. Апатовой, 
Е.И. Пискун, Е.Р. Орловой за внимание к данной работе и ценные 
советы, позволившие улучшить содержание монографии.
Авторы надеются, что монография будет полезна специалистампрактикам, менеджерам, специалистам по экономико-математическому моделированию, ученым, преподавателям, аспирантам, студентам, а также всем, кто интересуется вопросами моделирования 
процессов принятия управленческих решений в условиях неопределенности, конфликтности и экономического риска.

Глава 1
ЭНТРОПИЯ ШЕННОНА И ПРИНЦИП
ГИББСА — ДЖЕЙНСА

Энтропийный подход является сравнительно молодым научным 
методом. Научная история понятия энтропии насчитывает менее 
двух столетий. Однако за такой короткий срок наука выработала 
целый ряд различных представлений о феномене энтропии. Общим 
для различных взглядов на понятие энтропии можно считать то, 
что энтропия — это всегда мера хаоса макроскопической системы. 
Макроскопическая система — это система, состоящая из многих 
объектов, понимаемых как ее элементы. Эти элементы сами по себе 
могут быть микроскопическими, как, например, атомы или молекулы в физических и химических системах. Они могут быть макроскопическими: в частности, макромолекулы в полимерах, клетки 
в биологических структурах. Наконец, они могут быть достаточно 
крупными телами, как, например, «элементарные» объекты в социологии, хозяйствующие единицы в экономике.
Величина значения энтропии характеризует то, как далеко рассматриваемая система отклонилась от упорядоченного, структурированного состояния и как приблизилась она к беспорядочному, 
полностью хаотичному, бесструктурному, однородному виду. Существуют различные определения понятия «структура». Как правило, под структурой понимают характер организации элементов 
и совокупность отношений между элементами системы. Структура 
системы определяется характером и свойствами связей между ее 
элементами. Такое определение структуры не налагает никаких 
ограничений на природу самой системы и ее элементов. Это могут 
быть системы элементарных частиц, системы информационных 
символов, космические, биологические, социальные или экономические системы. Каждая система может быть отнесена к одному 
из трех следующих классов. Первый класс — класс высокоорганизованных систем, т.е. систем, обладающих развитой и сложной структурой. Второй класс — класс частично организованных систем, т.е. 
систем, обладающих не слишком сложной и не слишком простой 
структурой. Третий класс — класс хаотических систем, т.е. систем, 
обладающих случайностью распределения своих элементов, их появления, расположения и движения.
Энтропия является мерой хаоса. Но одновременно с этим энтропия является и мерой структурной организованности систем, 
так как хаос и порядок — это не только противоположные, но и взаимодополняющие понятия. Это можно трактовать как единство 

противоположностей, равновесие или неравновесие между которыми определяет направление и темп развития (прогресса или 
деградации) структур в рассматриваемой системе. Таким образом, 
энтропию можно считать мерой хаоса/порядка, т.е. одновременно 
и мерой хаотичности, и мерой упорядоченности.
Энтропия как мера хаоса/порядка изучалась в системах разной 
природы: это и энтропия Клаузиуса в термодинамике, и энтропия Больцмана в статистической физике, и энтропия Шеннона 
в теории информации, и энтропия Колмогорова в теории динамических систем, и энтропия фон Неймана в квантовой механике. 
Понимание универсальности энтропии как меры хаотичности и ее 
независимости от природы системы приходило постепенно. Так, 
по поводу энтропии Шеннона академик А.Н. Колмогоров писал 
[24]: «Общеизвестно и то обстоятельство, что выражение H () 
формально тождественно с выражением энтропии в физике. Это 
совпадение я считаю вполне достаточным для оправдания наименования величины H () и в теории информации “энтропией”: такие 
математические аналогии следует всегда подчеркивать, так как 
сосредоточение внимания на них содействует прогрессу науки». 
Один из важнейших фактов отметил Ю.Л. Климонтович [23, с. 31]: 
с развитием физики открытых систем стало понятно, что «среди 
различных макроскопических функций только энтропия S обладает 
совокупностью свойств, позволяющих использовать ее в качестве 
меры неопределенности (хаотичности) при статистическом описании процессов в макроскопических системах».
Максимально возможное значение энтропии заданной системы 
соответствует наименьшей степени ее структурной организованности, т.е. наибольшей хаотичности, неупорядоченности и неразберихе. Малое значение энтропии, напротив, соответствует высокой 
структурной упорядоченности соответствующей системы. Часто 
как синоним термина «энтропия» используют словосочетание 
«структурная энтропия». Этим подчеркивают тот факт, что значение энтропии характеризует степень структурной организованности (упорядоченности) системы.

1.1. ЭНТРОПИЯ ШЕННОНА

Клод Шеннон первым начал интерпретировать передаваемые 
сообщения и шумы в каналах связи с точки зрения статистики, рассматривая как конечные, так и непрерывные множества сообщений. 
Клод Элвуд Шеннон (1916–2001) — американский инженер и математик, основатель теории информации, т.е. теории обработки, передачи и хранения информации. Клода Шеннона называют «отцом 
теории информации».

Одной из самых известных научных работ Клода Шеннона является его статья «Математическая теория связи» [99], опубликованная в 1948 году. В этой работе Шеннон, исследуя проблему 
рациональной передачи информации через зашумленный коммуникационный канал, предложил вероятностный подход к пониманию 
коммуникаций, создал первую, истинно математическую, теорию 
энтропии как меры случайности и ввел меру дискретного распределения p вероятности на множестве альтернативных состояний 
передатчика и приемника сообщений. Шеннон задал требования 
к измерению энтропии и вывел формулу, ставшую основой количественной теории информации:

 
(
)
2
1
log
n

i
i
i
H X
p
p
=
= −
⋅
∑
. 
 (1.1)

Здесь n — число символов, из которых может быть составлено 
сообщение (алфавит), H — информационная двоичная энтропия. 
На практике значения вероятностей p i в формуле (1.1) заменяют их 

статистическими оценками: 
i
i
N
p
N
=
 — относительная частота i-го 

символа в сообщении, где N — число всех символов в сообщении,
Ni — абсолютная частота i-го символа в сообщении, т.е. число встречаемости (повторяемости) i-го символа в сообщении.
Величину (1.1) также называют средней энтропией сообщения, 

а величину 
2
1
log
i
p  — частной энтропией, характеризующей

отдельно взятый i-й символ. Формула (1.1) для дискретных случайных событий легко может быть обобщена на случай непрерывной функции распределения вероятностей.
Во введении к своей статье «Математическая теория связи» 
Шеннон отмечает, что в этой статье он расширяет теорию связи, 
основные положения которой содержатся в важных работах 
Найквиста и Хартли.
Гарри Найквист (1889–1976) — американский инженер шведского происхождения, один из пионеров теории информации. 
Первые результаты Найквиста по определению ширины частотного 
диапазона, требуемого для передачи информации, опубликованные 
в статье [97], заложили основы для последующих успехов Клода 
Шеннона в разработке теории информации.
Ральф Винтон Лайон Хартли (1888–1970) — американский 
ученый-электронщик. В своей работе [92] 1928 года Хартли ввел 
логарифмическую меру информации H = K · log 2 N, которую часто 
называют хартлиевским количеством информации. Хартли принадлежит следующая важная теорема о необходимом количестве 

информации: если в заданном множестве M, состоящем из N элементов, содержится элемент x, о котором известно только то, что 
он принадлежит этому множеству M, то, чтобы найти x, необходимо 
получить об этом множестве количество информации, равное log 2 N 
бит. Кстати, отметим, что название «бит» произошло от английской 
аббревиатуры BIT — BInary digiT. Этот термин впервые был предложен американским математиком Джоном Тьюки в 1946 году. 
Джон Уайлдер Тьюки (1915–2000) — американский математик. 
Именно Тьюки избрал бит для обозначения одного разряда в двоичной системе счисления. Хартли и Шеннон использовали бит как 
единицу измерения информации.
Вообще энтропия (1.1) — это энтропия множества вероятностей 
p 1, p 2,…, p n. Строго говоря, если X — конечная дискретная случайная величина, а p 1, p 2,…, p n — вероятности всех ее возможных 
значений, то функция (1.1) задает энтропию этой случайной величины, при этом, хотя X и не является аргументом энтропии, можно

записывать H (X) = 
2
1
log
n

i
i
i
p
p
=
−
⋅
∑
. Аналогично, если Y — конечная 

дискретная случайная величина, а q 1, q 2,…, q m — вероятности всех 
ее возможных значений, то для этой случайной величины можно 

записывать H (Y) = 
2
1
log
m

i
i
i
q
q
=
−
⋅
∑
.

Шеннон назвал функцию (1.1) энтропией по совету Джона фон 
Неймана. Нейман убеждал: эту функцию следует назвать энтропией 
«по двум причинам. В первую очередь, Ваша функция неопределенности была использована в статистической механике под этим 
именем, так что у нее уже есть имя. На втором месте, и что более 
важно, никто не знает, что такое энтропия на самом деле, так что 
в дискуссии Вы всегда будете иметь преимущество». Надо полагать, что этот совет Неймана не был простой шуткой. Скорее всего, 
и Джон фон Нейман и Клод Шеннон знали об информа ционной 
интерпретации энтропии Больцмана как о величине, характеризующей неполноту информации о системе.
В определении Шеннона энтропия — это количество информации, приходящееся на одно элементарное сообщение источника, вырабатывающего статистически независимые сообщения, 
при этом функция энтропии должна удовлетворять следующим 
условиям (аксиомам):
1. функция H (p) = H (p 1; p 2;…; p n) должна быть определена и непре
рывна на множестве 
(
)
1
2
1
;
;...;
0;1 ,
1, ,
1
n

n
j
j
j
p
p
p
p
j
n
p
=

⎧
⎫
⎪
⎪
⎡
⎤
=
∈
=
=
⎨
⎬
⎣
⎦
⎪
⎪
⎩
⎭
∑
p
;

Доступ онлайн
от 308 ₽
В корзину